Dell Intel PRO Family of Adapters Guía del usuario

Tipo
Guía del usuario
Adaptadores y dispositivos de Ethernet Intel
®
Ga del usuario
2
Visn general
Bienvenidos a la Guía del usuario de los adaptadores y dispositivos de Ethernet Intel®. Este manual describe la instalación
del hardware y software, los procedimientos de configuración y pautas para la resolución de problemas para los
adaptadores de red Intel, conexiones y otros dispositivos.
Destinatarios
Este documento está dirigido a profesionales de la tecnología de la información con un alto nivel de conocimiento,
experiencia y competencia en la tecnología de redes Ethernet.
Dispositivos compatibles
Adaptadores de red 40 Gigabit compatibles
l Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
l Adaptador de red convergente Ethernet Intel® XL710-Q2
NOTAS:
l Los dispositivos basados en la controladora de Ethernet Intel XL710 (4x10 GbE, 1x40 GbE, 2x40 GbE) tienen
un rendimiento total esperado para todo el dispositivo de 40 Gb/s en cada dirección.
l El primer puerto de los adaptadores basados en la controladora de Ethernet Intel® serie 700 mostrará la
cadena de marca correcta. Todos los des puertos del mismo dispositivo mostrarán una cadena de marca
genérica.
l Para que un adaptador basado en la controladora de Ethernet Intel® serie 700 alcance su pleno potencial,
debe instalarlo en una ranura PCIe Gen3 x8. Si se instala en una ranura más corta, o en una ranura Gen2 o
Gen1, el rendimiento del adaptador se verá limitado.
Adaptadores de red 25 Gigabit compatibles
l Adaptador de red Ethernet Intel® 25G 2P XXV710
l Ethernet Intel® 25G 2P XXV710 Mezz
l Ethernet Intel® 25G 2P E810-XXV OCP
l Adaptador de red Ethernet Intel® 25G 2P E810-XXV
NOTAS:
l Los dispositivos basados en la controladora de Ethernet Intel XXV710 (2x25 GbE) tienen un límite total de
rendimiento de hardware para todo el dispositivo de ~96-97 % de la velocidad de línea de 25 GbE de doble
puerto en cada dirección para paquetes grandes de TCP IPv4 (>1518 bytes) con un tamaño de MTU de 1500
bytes. Por ejemplo, el rendimiento total de la carga se limita a ~45,5 Gb/s en cada dirección. Por lo tanto,
aunque el rendimiento de 25 GbE de un solo puerto no se ve afectado, se espera que el rendimiento total
simultáneo de 25 GbE del doble puerto sea ligeramente inferior al de la velocidad de línea.
El primer puerto de los adaptadores basados en la controladora de Ethernet Intel® serie 700 mostrará la
cadena de marca correcta. Todos los des puertos del mismo dispositivo mostrarán una cadena de marca
genérica.
Adaptadores de red 10 Gigabit compatibles
l Adaptador de red Ethernet Intel® 10G 2P X520
l Ethernet Intel® 10G X520 LOM
l Ethernet Intel® X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador de red Ethernet Intel® 10G 2P X540-t
l Adaptador de red Ethernet Intel® 10G 2P X550-t
Visión general
3
l Ethernet Intel® 10G 4P X550 rNDC
l Ethernet Intel® 10G 4P X550/I350 rNDC
l Ethernet Intel® 10G 4P X540/I350 rNDC
l Ethernet Intel® 10G 4P X520/I350 rNDC
l Ethernet Intel® 10G 2P X520-k bNDC
l Ethernet Intel® 10G 4P X710-k bNDC
l Ethernet Intel® 10G 2P X710-k bNDC
l Ethernet Intel® 10G X710-k bNDC
l Adaptador de red convergente Ethernet Intel® X710
l Adaptador de red convergente Ethernet Intel® X710-T
l Ethernet Intel® 10G 4P X710/l350 rNDC
l Ethernet Intel® 10G 4P X710 SFP+ rNDC
l Ethernet Intel® 10G X710 rNDC
l Adaptador de Ethernet Intel® X710-DA2 para servidores para OCP
l Ethernet Intel® 10G 2P X710 OCP
l Ethernet Intel® 10G 4P X710 OCP
l Ethernet Intel® 10G 2P X710-T2L-t OCP
l Ethernet Intel® 10G 4P X710-T4L-t OCP
l Adaptador de red Ethernet Intel® 10G 2P X710-T2L-t
l Adaptador de red Ethernet Intel® 10G 4P X710-T4L-t
NOTA:
El primer puerto de los adaptadores basados en la controladora de Ethernet Intel® serie 700 mostrará la cadena de
marca correcta. Todos los des puertos del mismo dispositivo mostrarán una cadena de marca genérica.
Dispositivos y adaptadores de red Gigabit compatibles
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
l Ethernet Intel® 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
l Placa posterior de conexión Ethernet Intel® I354 1.0 GbE
l Intel® Gigabit 2P I350-t LOM
l Intel® Gigabit I350-t LOM
l Intel® Gigabit 2P I350 LOM
Sistemas operativos admitidos
Los controladores de esta versión se han probado con los siguientes sistemas operativos. Es posible que funcionen otros
sistemas operativos con nuestros controladores, pero no se han probado.
l Microsoft Windows Server 2019, versión 1809
l Microsoft Windows Server 2016
l VMware* ESXi* 7.0 U1
l VMware ESXi 6.7 U3
l Red Hat* Enterprise Linux* (RHEL) 8.3
l Red Hat* Enterprise Linux* (RHEL) 8.2
l Red Hat* Enterprise Linux* (RHEL) 7.9
l Novell* SUSE* Linux Enterprise Server (SLES) 15 SP2
Instalación
4
Instalación
Este capítulo habla sobre cómo instalar adaptadores Ethernet Intel®, controladores y otro software.
A grandes rasgos, la instalación consta de los siguientes pasos, que se describen más en profundidad s adelante en
este capítulo.
Si está instalando un adaptador de red, siga este procedimiento desde el paso 1.
Si está actualizando el software del controlador, empiece con el paso 4.
NOTA: si actualiza el firmware, debe actualizar el software del controlador a la versión de la misma familia.
1. Revise los requisitos del sistema.
2. Introduzca el adaptador PCI Express, la tarjeta Mezzanine o la tarjeta dependiente de red en su servidor.
3. Conecte con cuidado los cables de cobre, cables de fibra o cables de conexión directa de su red.
4. Instale los controladores de red y el resto del software.
5. Pruebe el adaptador.
Compatibilidad del hardware
Antes de instalar el adaptador, realice las siguientes comprobaciones en el sistema:
l El BIOS más reciente para su sistema
l Una ranura de PCI Express* abierta (consulte las especificaciones de su tarjeta para conocer las ranuras
compatibles)
Instalación del adaptador
Seleccionar la ranura correcta
Una ranura PCI-Express x4, x8 o x16 abierta; en función de su adaptador.
NOTA: algunos sistemas cuentan con ranuras sicas PCI Express x8 que admiten velocidades menores. Consulte el
manual del sistema para identificar la ranura.
NOTA: para obtener más información sobre la identificación de ranuras PCI Express compatibles con sus
adaptadores, consulte la guía de su sistema Dell EMC.
Insertar el adaptador en el equipo
1. Si su equipo admite conexión en funcionamiento PCI, consulte la documentación del equipo para obtener
instrucciones de instalación específicas.
2. Apague y desconecte el equipo. A continuación, retire la cubierta.
PRECAUCIÓN: apague y desconecte la fuente de alimentación antes de retirar la cubierta del equipo. Si no
lo hace, puede ser peligroso y ades puede dañar el adaptador o el equipo.
3. Retire el soporte de cubierta de una ranura disponible.
Instalación
5
4. Introduzca el adaptador en la ranura hasta que encaje correctamente. Puede instalar un adaptador PCI Express
más pequeño en una ranura PCI Express más grande.
PRECAUCIÓN: algunos adaptadores PCI Express pueden tener un conector corto, lo que los hace
más frágiles que los adaptadores PCI. Una fuerza excesiva poda romper el conector. Tenga
cuidado al presionar la placa para introducirla en la ranura.
5. Asegure la abrazadera del adaptador con un tornillo si es necesario.
6. Vuelva a colocar la cubierta y conecte el cable de alimentación.
7. Encienda el equipo.
Instalación de una tarjeta Mezzanine en el servidor de hoja
Consulte la documentación del servidor para obtener instrucciones detalladas sobre cómo instalar una tarjeta Mezzanine.
1. Apague el servidor de hoja, extráigalo del chasis y quítele la cubierta.
ADVERTENCIA: si no apaga el servidor de hoja, usted podría correr peligro y la tarjeta o el servidor
podrían resultar dañados.
2. Levante la palanca de bloqueo e inserte la tarjeta en un calo de tarjeta Mezzanine compatible disponible. Empuje
la tarjeta en el zócalo hasta que quede bien asentada.
NOTA: debe haber presente un conmutador o un módulo de paso en el mismo tejido que la tarjeta del chasis
para proporcionar una conexión física. Por ejemplo, si la tarjeta Mezzanine se inserta en el tejido B, debe
haber también presente un conmutador en el tejido B del chasis.
3. Repita el paso 2 con cada tarjeta que desee instalar.
4. Baje la palanca de bloqueo hasta que encaje sobre la tarjeta o tarjetas.
5. Vuelva a colocar la cubierta del servidor de hoja y vuelva a insertar éste en el chasis.
6. Encienda el equipo.
Instalación de una tarjeta dependiente de red en un servidor
Consulte la documentación de su servidor para ver instrucciones detalladas sobre mo instalar un bNDC o rNDC.
1. Desactive el servidor y retire su cubierta.
ADVERTENCIA: si no apaga el servidor, podría correr peligro y la tarjeta o el servidor podrían resultar
dañados.
2. Localice el conector de la tarjeta dependiente de red de su servidor. Consulte la documentación del servidor para
más detalles.
Instalación
6
3. Inserte la tarjeta dependiente de red en el conector.
4. Apriete los tornillos de la tarjeta dependiente de red para fijarla en su sitio.
5. Sustituya la cubierta del servidor.
Conexión de los cables de red
Conecte el cable de red adecuado tal como se describe en las secciones siguientes.
Conexn del cable de red RJ-45
Conecte el cable de red RJ-45 tal y como se muestra en la ilustración:
La siguiente tabla muestra las longitudes máximas para cada tipo de cable a una velocidad de transmisión determinada.
Categoría 5 Categoría 6 Categoría 6a Categoría 7
1 Gbps 100 m 100 m 100 m 100 m
10 Gbps (no disponible) 55 m 100 m 100 m
25 Gbps (no disponible) (no disponible) (no disponible) 50 m
40 Gbps (no disponible) (no disponible) (no disponible) 50 m
ADVERTENCIA: si utiliza cables con menos de 4 pares, deberá configurar manualmente la velocidad y el
plex del adaptador y del interlocutor de enlace. Además, con cables de 2 y 3 pares, el adaptador solamente
podrá alcanzar velocidades de hasta 100 Mbps.
En todos los casos:
l El adaptador debe estar conectado a un interlocutor de enlace compatible, de preferencia que se haya establecido
para negociar autoticamente la velocidad y el dúplex de los adaptadores Intel Gigabit.
l Los adaptadores Intel Gigabit y 10 Gigabit para servidor que utilizan conexiones de cobre se adaptan
automáticamente a las conexiones MDI o MDI-X. La función de adaptación automática a MDI-X de los adaptadores
Intel Gigabit de cable de cobre permite conectar directamente dos adaptadores sin necesidad de utilizar un cable de
cruzamiento.
Instalación
7
Módulos SFP+, SFP28, QSFP+ y QSFP28 admitidos
Los adaptadores de Ethernet Intel® para servidores solo admiten la óptica de Intel y/o todos los cables de conexión directa
de limitación activa y pasiva que cumplen las especificaciones SFF-8431 v4.1 y SFF-8472 v10.4.
Especificaciones de cableado del transceptor SR
Longitud de onda láser: 850 nanómetros (no visible).
Tipo de conector: LC o SC.
Tipo de cable: fibra multimodo con un diámetro decleo de 62,5 µm.
l Longitud máxima de cable a 1 Gbps: 275 metros.
l Longitud máxima de cable a 10 Gbps (o superior): 33 metros.
Tipo de cable: fibra multimodo con un diámetro decleo de 50 µm.
l Longitud máxima de cable a 1 Gbps: 550 metros.
l Longitud máxima de cable a 10 Gbps (o superior): 300 metros.
Especificaciones de cableado del transceptor LR
Longitud de onda láser: 1310 nametros (no visible).
Tipo de conector: LC.
Tipo de cable: fibra monomodo con un diámetro decleo de 9,0 µm.
l Longitud máxima del cable: 10 kilómetros.
La mayoría de los adaptadores de Ethernet Intel® para servidores son compatibles con los siguientes módulos:
NOTA: los dispositivos basados en Ethernet Intel® serie 710 no admiten módulos de terceros.
Proveedor Tipo Números de pieza Adaptadores
compatibles
Dell EMC 1G/10G SFP+ SR de doble velocidad (con palanca
de bloqueo)
C5RNH
1
, WTRD1
1, 2
,
XYD50, Y3KJN
2
X520, X710
3
,
XXV710, E810-
XXV
Dell EMC 10G/25G SFP28 de doble velocidad M14MK XXV710, E810-
XXV
Dell EMC QSFP+ F10 pasivo tipo pulpo (QSFP+ a 4xSFP+) 27GG5, JNPF8, P4YPY,
P8T4W, TCPM2
X520, X710
3
,
E810-XXV
Dell EMC Transceptor de SFP+ a 1000BASET 8T47V, XTY28 X710
3
, E810-
XXV
Dell EMC SFP+ LR Optic 60F4J, RN84N X710
3
, E810-
XXV
Dell EMC Cable óptico activo (AOC) 1DXKP, K0T7R, MT7R2,
P9GND, T1KCN, W5G04,
YJF03
X710
3
, XXV710,
E810-XXV
Dell EMC SFP28 óptico 68X15, HHHHC
2
, 0YR96,
P7D7R
2
, W4GPP
XXV710, E810-
XXV
Dell EMC SFP+ F10 pasivo 358VV, 53HVN, 5CWK6,
C6Y7M, V250M
XXV710, E810-
XXV
Dell EMC SFP28 pasivo 2JVDD, 9X8JP, D0R73, XXV710, E810-
Instalación
8
VXFJY XXV
Dell EMC SFP28 activo 3YWG7, 5CMT2, RCVP5,
X5DH4
XXV710, E810-
XXV
Dell EMC QSFP28 F10 pasivo tipo pulpo (QSFP+ a 4xSFP28) 26FN3, 7R9N9, YFNDD XXV710, E810-
XXV
Dell EMC Cables multiconector pasivos QSFP28 7VN5T, 8R4VM, D9YM8 XXV710, E810-
XXV
Dell EMC 1G/10G/40G QSFP+ SR DE TRIPLE VELOCIDAD
(con palanca de bloqueo) (1G y 10G no se admiten
en XL710)
5NP8R, 7TCDN, 9GCCD,
FC6KV, J90VN, NWGTV,
V492M
XL710
1
No se admite en los adaptadores basados en la controladora Intel® X520.
2
No se admite en los adaptadores basados en la controladora Intel® E810-XXV.
3
El adaptador para servidores Ethernet Intel® X710-DA2 OCP solo es compatible con los módulos incluidos en la tabla
siguiente.
El adaptador para servidores Ethernet Intel® X710-DA2 OCP solo es compatible con los módulos siguientes:
Proveedor Tipo Números de pieza
Dell EMC SFP+ SR High Temp Optics N8TDR
Dell EMC QSFP+ F10 pasivo tipo pulpo 27GG5, P8T4W, TCPM2
LOS MÓDULOS Y CABLES ÓPTICOS DE OTRAS EMPRESAS A LOS QUE SE HA HECHO REFERENCIA
ANTERIORMENTE SE HAN INCLUIDO SOLO CON EL FIN DE RESALTAR LAS ESPECIFICACIONES Y COMPATIBILIDAD
POTENCIAL DE PRODUCTOS DE OTRAS EMPRESAS Y NO SON RECOMENDACIONES, APOYO NI PATROCINIO POR
PARTE DE INTEL DE NINGÚN PRODUCTO DE OTRAS EMPRESAS. INTEL NO RESPALDA NI PROMOCIONA
PRODUCTOS FABRICADOS POR OTRAS EMPRESAS, Y LA REFERENCIA A LOS MISMOS SE PROPORCIONA
ÚNICAMENTE PARA COMPARTIR INFORMACIÓN RELATIVA A DETERMINADOS MÓDULOS Y CABLES ÓPTICOS CON
LAS ESPECIFICACIONES ANTEDICHAS. PUEDE QUE HAYA OTROS FABRICANTES O PROVEEDORES QUE
PRODUZCAN O SUMINISTREN MÓDULOS Y CABLES ÓPTICOS CON DESCRIPCIONES SIMILARES O COINCIDENTES.
LOS CLIENTES DEBEN UTILIZAR SU PROPIO CRITERIO Y DILIGENCIA PARA COMPRAR MÓDULOS Y CABLES
ÓPTICOS DE LA EMPRESA QUE ELIJAN. LOS CLIENTES SON LOS ÚNICOS RESPONSABLES DE VALORAR LA
ADECUACN DEL PRODUCTO Y/O DE LOS DISPOSITIVOS, ASÍ COMO DE LA SELECCN DEL PROVEEDOR PARA
COMPRAR CUALQUIER PRODUCTO. LOS MÓDULOS Y CABLES ÓPTICOS A LOS QUE SE HA HECHO REFERENCIA
ANTERIORMENTE NO TIENEN GARANTÍA NI SOPORTE DE INTEL. INTEL NO ASUME NINGUNA RESPONSABILIDAD Y
ESTÁ EXENTO DE CUALQUIER GARANTÍA EXPRESA O IMPLÍCITA RELATIVA A LA VENTA Y/O USO DE ESTOS
PRODUCTOS DE OTRAS EMPRESAS O LA SELECCN DEL PROVEEDOR REALIZADA POR LOS CLIENTES.
Conexn del cable de conexión directa
Introduzca el cable de red de conexión directa según se ilustra a continuación.
Instalación
9
Tipo de cables:
l 40 Gigabit Ethernet por cable SFP+ de conexión directa (Biaxial)
l La longitud máxima es de 7 metros.
l 25 Gigabit Ethernet por cable SFP28 de conexión directa (Biaxial)
l La longitud máxima es de 5 metros.
l Para un rendimiento óptimo, debe utilizar CA-25G-L con RS-FEC y 25GBASE-CR
l 10 Gigabit Ethernet por cable SFP+ de conexión directa (Biaxial)
l La longitud máxima es de 10 metros.
Instalación de controladores y software
Sistemas operativos Windows*
Para poder instalar los controladores, debe tener derechos de administrador en el sistema operativo.
1. Descargue los controladores más recientes desde el sitio web de asistencia y transfiéralos al sistema.
2. Si se muestra la pantalla del asistente de detección de nuevo hardware, haga clic en Cancel (Cancelar).
3. Haga doble clic en el archivo descargado.
4. Seleccione Install (Instalar) en la pantalla del paquete de actualizaciones de Dell.
5. Siga las instrucciones del asistente de instalación. Asegúrese de seleccionar Intel PROSet para la instalación.
NOTA: asegúrese de seleccionar la opción de instalación "iSCSI using Data Center Bridging" (iSCSI con puentes de
centro de datos) para sistemas que tienen un dispositivo preparado para NPAR instalado.
Consulte "Instalación y configuración del software y los controladores de Microsoft* Windows*" en la página58 para obtener
más información específica.
Instalación de controladores de Linux* desde el digo fuente
1. Descargue y expanda el archivo con la extensión tar del controlador.
2. Compile el módulo del controlador.
3. Instale el módulo con el comando modprobe.
4. Asigne una dirección IP mediante el comando ifconfig.
Consulte la sección de Linux de esta guía, donde encontrará información específica.
Instalación
10
Instalación de controladores de Linux desde RPM
1. Descargue y expanda el archivo con la extensión tar del controlador.
2. Instale el controlador con el comando rpm.
Consulte la sección de Linux de esta guía, donde encontrará información específica.
Características del dispositivo
11
Características del dispositivo
Este capítulo describe las características disponibles en los dispositivos Ethernet Intel. Las principales características están
organizadas alfabéticamente.
NOTA: los ajustes disponibles dependen de su dispositivo y del sistema operativo. No todos los ajustes están
disponibles en todas las combinaciones de dispositivos/SO.
Separación entre tramas ajustable
Sirve de compensación para un número excesivo de colisiones de paquetes Ethernet en la red.
La configuración predeterminada funciona mejor en la mayoría de los equipos y redes. Al habilitarla, el adaptador de red se
adapta de forma dinámica a las condiciones de tfico de la red. No obstante, en algunos casos poco comunes se poda
obtener un mejor rendimiento si se deshabilita esta función. Esta configuración fuerza un espacio estático entre paquetes.
Valores por defecto Deshabilitado
Rango l Habilitado
l Deshabilitado
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Adaptive Inter-Frame
Spacing" -DisplayValue "Enabled"
Habilitación de puentes de centro de datos (DCB)
Los puentes de centro de datos proporcionan una capa de transporte de centro de datos sinrdidas para utilizar las LAN y
SAN en una infraestructura unificada única.
DCB incluye las prestaciones siguientes:
l Control de flujo basado en la prioridad (PFC; IEEE 802.1Qbb)
l Selección de transmisión aumentada (ETS; IEEE 802.1Qaz)
l Notificación de congestión (CN)
l Extensiones del estándar LLDP (protocolo de descubrimiento de la capa de enlace) (IEEE 802.1AB) que permiten el
protocolo DCBX (protocolo de intercambio de capacidades de la habilitación de puentes de centro de datos)
Hay dos versiones compatibles de DCBX:
Versión CEE: la especificación se puede encontrar como enlace en el documento siguiente:
http://www.ieee802.org/1/files/public/docs2008/dcb-baseline-contributions-1108-v1.01.pdf
Versión IEEE: la especificación se puede encontrar como enlace en el documento siguiente:
https://standards.ieee.org/findstds/standard/802.1Qaz-2011.html
NOTA: la pila DCBX del sistema operativo toma de forma predeterminada la versión CEE de DCBX y, si un par
transmite TLV IEEE, se realiza automáticamente su transición a la versión IEEE.
Para obtener s información sobre DCB, incluida la Especificación del protocolo de intercambio de capacidades de DCB,
visite http://www.ieee802.org/1/pages/dcbridges.html.
Configuracn de DCB para Windows
NOTAS:
l En sistemas que ejecutan el sistema operativo Microsoft Windows Server, la habilitación de *QoS/control de
Características del dispositivo
12
flujo de prioridad deshabilitará el control de flujo a nivel de enlace.
l Si *QOS/DCB no está disponible, puede ser por una de las siguientes razones:
l El agente LLDP de firmware (FW-LLDP) se desactivó desde un entorno de prearranque (normalmente
UEFI).
l Este dispositivo se basa en la controladora de Ethernet Intel® X710 y la velocidad de enlace actual es
de 2,5 Gbps o 5 Gbps.
Este ajuste se encuentra en la pestaña Data Center de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Puede utilizar Intel® PROSet para realizar las tareas siguientes:
l Visualizar estado:
l Selección de transmisión aumentada
l Control del flujo de prioridad
Estado no operativo: si el indicador de estado muestra que DCB no está funcionando, podría ser a causa de
varias razones:
l DCB no está habilitado, seleccione la casilla de verificación para habilitarlo.
l Una o más de las funciones DCB se encuentran en estado no operativo.
Lo más probable es que el estado no operativo se presente cuando se selecciona Utilizar configuración de
conmutador o cuando se activa Utilizar configuracn avanzada. Por lo general, se debe a que una o más
funciones DCB no se están intercambiando de forma satisfactoria con el conmutador. Entre los problemas
posibles están:
l El conmutador no admite una de las funciones.
l El conmutador no está anunciando la función.
l El conmutador o host ha deshabilitado la función (la cual sería una opción avanzada para el host).
l Deshabilitar/habilitar DCB
l Información sobre resolución de problemas
Hyper-V (DCB y VMQ)
NOTA: configurar un dispositivo en el modo VMQ + de DCB reduce elmero de VMQ disponibles para SO
invitados.
DCB para Linux
NOTA: DCB es compatible con RHEL6 o posterior, o SLES11 SP1 o posterior. Si desea información más concreta,
consulte la documentación de su sistema operativo.
Los controladores de Ethernet Intel admiten DCBX basado en firmware o en software en Linux, dependiendo del dispositivo
de PF subyacente. La siguiente tabla resume la compatibilidad de DCBX con los controladores.
Controlador Linux DCBX basado en firmware DCBX basado en software
ice Compatible Compatible
i40e Compatible Compatible
ixgbe No admitido Compatible
En el modo basado en firmware, el firmware intercepta todo el tráfico LLDP y maneja la negociación DCBX de forma
transparente para el usuario. En este modo, el adaptador funciona en modo DCBX “dispuesto”, recibiendo la configuración
DCB del interlocutor de enlace (normalmente un conmutador). El usuario local solo puede consultar la configuración DCB
negociada.
Características del dispositivo
13
En el modo basado en software, el tfico LLDP se reenvía a la pila de red y al espacio de usuario, donde un agente de
software puede manejarlo. En este modo, el adaptador puede funcionar en modo DCBX “dispuesto” o “no dispuesto”, y la
configuración DCB puede consultarse y establecerse localmente. El modo basado en software requiere que el agente
LLDP basado en FW esté desactivado, si es compatible.
NOTAS:
l Solo puede haber un agente LLDP/DCBX activo en una sola interfaz a la vez.
l Los modos DCBX basado en software y en firmware son mutuamente excluyentes.
l Cuando el agente DCBX de firmware está activo, los agentes de software no podrán recibir ni transmitir
tramas LLDP. Consulte el "Protocolo de descubrimiento de la capa de enlace del firmware (FW-LLDP)" en la
gina15, a como elame del controlador de Linux en su instalación, para obtener información sobre
cómo activar o desactivar el agente FW-LLDP.
l En el modo DCBX basado en software, puede configurar los pametros de DCB utilizando agentes
LLDP/DCBX de software que interactúan con la API de DCB Netlink del kernel de Linux. Recomendamos
usar OpenLLDP como agente DCBX cuando se esté ejecutando en el modo de software. Para obtener más
información, consulte las páginas del manual de OpenLLDP y https://github.com/intel/openlldp.
l Para obtener información sobre la configuración de los pametros de DCBX en un conmutador, consulte la
documentación del fabricante del conmutador.
iSCSI en DCB
Los adaptadores de Ethernet Intel® son compatibles con los iniciadores de software iSCSI nativos del sistema operativo
subyacente. DCB suele estar configurado en el conmutador. Si el conmutador no es compatible con DCB, el intercambio
DCB fallará, pero no se perde la conexión iSCSI.
NOTA: DCB no se instala en una máquina virtual. iSCSI en DCB solo se admite en el SO base. Un iniciador de iSCSI
que se ejecute en una quina virtual no contará con las mejoras de DCB Ethernet.
Configuración de Microsoft Windows
La instalación de iSCSI incluye la instalación del agente iSCSI de DCB (iscsidcb.exe), un servicio de modo usuario. El
iniciador de software de iSCSI de Microsoft habilita la conexión de un host de Windows a un conjunto de almacenamiento
iSCSI mediante un adaptador de Ethernet Intel. Consulte la documentación de su sistema operativo para obtener detalles
sobre la configuración.
Para habilitar DCB en el adaptador, realice lo siguiente:
Este ajuste se encuentra en la pestaña Data Center de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
La ficha Data Center (Centro de datos) proporciona información sobre el estado de DCB, ya sea operativo o no, así como
detalles adicionales en caso de que no lo estuviera.
NOTA: en los sistemas operativos Microsoft Windows Server, si configura la prioridad mediante IEEE, es posible que
la directiva iSCSI no se cree automáticamente. Para crear la directiva iSCSI manualmente, utilice Powershell y
escriba:
New-NetQosPolicy -Name "UP4" -PriorityValue 8021 Action 4 –iSCSI
Configuración de Linux
En el caso de las distribuciones de digo abierto, prácticamente todas son compatibles con un iniciador de software iSCSI
abierto y los adaptadores de Ethernet Intel® los admitin. Para obtener información adicional sobre la configuración de un
iniciador de Open iSCSI en concreto, consulte la documentación de distribución.
Características del dispositivo
14
Los adaptadores Intel® basados en 82599 y X540 son compatibles con iSCSI en una nube de puentes de centro de datos.
Si se utiliza junto con conmutadores y destinos que admitan la aplicación TLV de iSCSI/DCB, esta solución puede
proporcionar un ancho de banda mínimo garantizado para el tfico iSCSI entre el host y el destino. Esta solución permite a
los administradores de almacenamiento segmentar el tfico iSCSI y distinguirlo del tfico LAN. Anteriormente, el
proveedor de conmutadores trataba como tfico LAN el tfico iSCSI dentro de un entorno compatible con DCB. Consulte a
sus proveedores de conmutador y de destino si son compatibles con la aplicación TLV de iSCSI/DCB.
Combinación del acceso directo a memoria (DMA)
DMA (acceso directo a memoria) permite al dispositivo de red mover datos de paquete directamente a la memoria del
sistema, lo que reduce el uso de la CPU. Sin embargo, los intervalos aleatorios y de frecuencia a los que llegan los
paquetes no permiten al sistema entrar en un estado de menor consumo de energía. La combinación de DMA permite a la
NIC recopilar paquetes antes de iniciar un evento DMA. Esto puede elevar la latencia de red, pero tambn aumenta las
posibilidades de que el sistema consuma menos energía. Los adaptadores y dispositivos de red basados en la
controladora de Ethernet Intel® I350 (y superiores) admiten la unión de DMA.
Los valores de combinación de DMA superiores pueden dar como resulta un ahorro energético mayor, pero es posible que
eleven la latencia de la red del sistema. Si habilita la combinación de DMA, también debe establecer el valor de la tasa
de moderación de interrupción en "Minimal" (Mínimo). Esto minimiza el impacto de la latencia que impone la combinación
de DMA y produce un mejor rendimiento máximo. Debe habilitar la combinación de DMA en todos los puertos activos del
sistema. Es posible que no ahorre energía si solo la habilita en algunos puertos del sistema. También existen varias
configuraciones de BIOS, plataforma y aplicaciones que afectan a su potencial de ahorro energético. Hay un documento
con instrucciones para configurar mejor su plataforma en lagina web de Intel.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "DMA Coalescing" -
DisplayValue "Enabled"
Personalización dinámica de dispositivos (DDP)
Los adaptadores basados en la controladora de Ethernet Intel® serie 800 requieren un archivo de paquete de
personalización dinámica de dispositivos (DDP) para habilitar las funciones avanzadas (como tunelización dinámica,
Director de flujo, RSS y ADQ). La DDP permite cambiar el canal de procesamiento de paquetes de un dispositivo aplicando
un paquete de perfiles al dispositivo en tiempo de ejecución. Los perfiles se pueden usar, por ejemplo, para agregar
compatibilidad con nuevos protocolos, cambiar protocolos existentes o cambiar los ajustes predeterminados. Los perfiles
DDP también pueden revertirse sin necesidad de reiniciar el sistema.
El paquete de DDP se carga durante la inicialización del dispositivo. El controlador comprueba si el paquete de DDP está
presente y es compatible. Si este archivo existe, el controlador lo cargará en el dispositivo. Si no, el controlador entrará en
modo seguro, donde utilizará la configuración contenida en la NVM del dispositivo.
El modo seguro desactiva las funciones avanzadas y de rendimiento y solo admite el tfico básico y las funciones mínimas,
como la actualización de la NVM o la descarga de un nuevo controlador o paquete de DDP. Para obtener más información,
consulte Modo seguro.
Los controladores de Microsoft Windows y ESX incorporan el paquete de DDP en el propio controlador. Linux carga el
paquete desde un archivo externo:
l Linux: carga el intel/ice/ddp/ice.pkg desde la raíz del firmware (normalmente /lib/firmware/ o /lib/firmware/updates/).
NOTAS:
l No se puede actualizar el paquete de DDP si ya está cargado algún controlador de PF. Para sobrescribir un
paquete, descargue todas las PF y, a continuación, vuelva a cargar el controlador con el paquete nuevo.
l Excepto en el caso de Linux, solo se puede utilizar un paquete de DDP por controlador, aunque tenga
instalado más de un dispositivo que utilice el controlador.
l Solo la primera PF cargada por dispositivo puede descargar un paquete para ese dispositivo.
Características del dispositivo
15
l Si está utilizando DPDK, consulte la documentación de DPDK para obtener instrucciones de instalación y
más información.
Protocolo de descubrimiento de la capa de enlace del firmware
(FW-LLDP)
Los dispositivos basados en la controladora de Ethernet Intel® series 800 y 700 utilizan un agente del protocolo de
descubrimiento de la capa de enlace (LLDP) que se ejecuta en el firmware. Cuando se está ejecutando, impide que el
sistema operativo y las aplicaciones reciban tfico LLDP desde el adaptador de red.
l La configuración de FW-LLDP es por puerto y persiste entre reinicios.
l El agente FW-LLDP es necesario para que el DCB funcione.
Adaptadores basados en la controladora de Ethernet Intel® serie 800
FW-LLDP está desactivado en NVM por defecto. Para habilitar/deshabilitar el agente FW-LLDP:
l Linux: utilice ethtool para establecer o mostrar de forma persistente el indicador privado fw-lldp-agent.
l ESX: utilice el comando esxcli para establecer u obtener de forma persistente la configuración de fw_lldp_agent.
l Microsoft Windows: el controlador base no cambia de forma persistente el FW-LLDP. Utilice el atributo Agente
LLDP en UEFI HII para cambiar de forma persistente la configuración de FW-LLDP. Si se habilita DCB cuando FW-
LLDP está deshabilitado, el controlador base inicia temporalmente el Agente LLDP mientras la funcionalidad DCB
está habilitada.
Adaptadores basados en la controladora de Ethernet Intel® serie 700
FW-LLDP está habilitado en NVM de forma predeterminada. Para habilitar/deshabilitar el agente FW-LLDP:
l Linux: utilice ethtool para configurar o mostrar el indicador privado disable-fw-lldp.
l ESX: utilice el comando esxcfg-module para configurar u obtener el pametro del módulo LLDP.
l Microsoft Windows: utilice el atributo de agente LLDP en UEFI HII para cambiar la configuración de FW-LLDP.
Nota: debe activar el atributo "LLDP AGENT" de UEFI HII para aplicar la configuración de FW-LLDP. Si la opción
"LLDP AGENT" se ha deshabilitado en UEFI HII, no podrá habilitar FW-LLDP desde el sistema operativo.
l Debe habilitar el agente LLDP en UEFI HII para utilizar DCB.
Modo de corrección de errores de reenvío (FEC)
Le permite establecer el modo de corrección de errores hacia delante o Forward Error Correction (FEC). FEC mejora la
estabilidad de los enlaces, pero aumenta la latencia. Muchas ópticas de alta calidad, cables de conexión directa y canales
de placa posterior proporcionan un enlace estable sin FEC.
El controlador le permite establecer los siguientes modos de FEC:
l Auto FEC (Modo de FEC autotico): establece el modo de FEC en función de las capacidades del cable
conectado.
l CL108 RS-FEC: selecciona solo la capacidad RS-FEC y las capacidades de solicitud.
l CL74 FC-FEC/BASE-R: selecciona solo la capacidad BASE-R y las capacidades de solicitud.
l No FEC (Sin FEC): deshabilita FEC.
NOTAS:
l Para que los dispositivos puedan beneficiarse de esta característica, los interlocutores de enlace deben tener
FEC habilitado.
l Los dispositivos con controladoras de Ethernet Intel® serie 800 solo habilitan configuraciones de corrección
de errores de reeno (FEC) que son compatibles con los medios conectados y que se espera que produzcan
conexiones con una tasa de errores de bits (BER) saludable.
l Si tiene problemas de enlace (incluso no hay enlace) a velocidades de enlace superiores a 10 Gbps,
compruebe la configuración o las especificaciones de su conmutador. Muchas conexiones ópticas y cables
de conexión directa requieren RS-FEC para velocidades de conexión superiores a 10 Gbps. Una de las
Características del dispositivo
16
siguientes opciones puede resolver el problema:
l Configure su conmutador para utilizar el modo RS-FEC.
l Especifique una conexión de velocidad de enlace de 10 Gbps o más lenta.
l Si intenta conectarse a 25 Gbps, pruebe a utilizar un cable SFP28 CA-S o CS-N de conexión directa.
Estos cables no requieren RS-FEC.
l Si su conmutador no admite el modo RS-FEC, compruebe con su proveedor de conmutadores la
disponibilidad de una actualización de SW o FW.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "FEC Mode" -DisplayValue
"Auto FEC"
Control de flujo
Permite que los adaptadores puedan regular el tfico de forma s eficaz. Los adaptadores generan tramas de control de
flujo cuando sus colas de recepción llegan a un límite predefinido. La generación de las tramas de control de flujo indican
al emisor que haga s lenta la transmisión. La respuesta de los adaptadores a las tramas de control de flujo es
deteniendo la transmisión de paquetes durante la duración especificada en dicha trama.
Al permitir que los adaptadores ajusten la transmisión de paquetes, el control de flujo ayuda a prevenir lardida de
paquetes. Puede mejorar el rendimiento de RDMA habilitando el control de flujo en todos los nodos y en el conmutador al
cual están conectados.
NOTAS:
l Para que los adaptadores puedan aprovechar esta función, los interlocutores de enlace deben admitir las
tramas de control de flujo.
l En sistemas que ejecutan el sistema operativo Microsoft Windows Server, la habilitación de *QoS/control de
flujo de prioridad deshabilitará el control de flujo a nivel de enlace.
l Algunos dispositivos admiten la negociación automática. Al seleccionar esto, el dispositivo anuncia el valor
almacenado en su NVM (normalmente “Disabled” [Desactivado]).
l Cuando un adaptador se ejecuta en modo NPar, el control de flujo se limita a la partición raíz de cada puerto.
Valores por
defecto
Disabled (Desactivado) (Microsoft Windows Server 2019 y posterior)
RX & TX Enabled (Recepción y transmisión habilitadas) (Microsoft Windows Server 2016 y
anterior)
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y transmisión
l Auto Negotiation (Negociación autotica) (solo disponible para algunos adaptadores)
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Flow Control" -DisplayValue
"Rx Enabled"
Características del dispositivo
17
Modo maestro-esclavo Gigabit
Determina si el adaptador o el interlocutor de enlace se ha designado como el maestro. El otro dispositivo se ha designado
como el esclavo. Por predeterminación, la especificación IEEE 802.3ab es la que define la manera como se manejan los
conflictos. Los dispositivos de puertos múltiples como los conmutadores tienen una prioridad mayor que los dispositivos de
un solo puerto y se les designa como el maestro. Si ambos dispositivos son de puertos múltiples, aquel que tiene los bits de
inicialización de mayor velocidad se convierte en el maestro. Esta configuración predeterminada se llama "Configuración
predeterminada del hardware".
NOTA: en la mayoa de los casos, es recomendable que conserve el valor predeterminado de esta función.
El configurar esto a "Modo forzar maestro" o "Modo forzar esclavo" sobrepasa a la predeterminación de hardware.
Valores por defecto Detección automática
Rango l Modo forzar maestro
l Modo forzar esclavo
l Detección automática
NOTA: algunos dispositivos de puertos múltiples podrían estar forzados al Modo maestro. Si el adaptador está
conectado a un dispositivo de este tipo y está configurado en el "Forzar modo maestro", no se establece el enlace.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Gigabit Master Slave Mode" -
DisplayValue "Auto Detect"
Tasa de moderación de la interrupción
Fija la Interrupt Throttle Rate (ITR). Esta configuración modera la tasa a la cual se generan las interrupciones de
Transmisión y Recepción.
Cuando sucede un evento, tal como la recepción de un paquete, el adaptador genera una interrupción. La interrupción
interrumpe a la CPU y a cualquier aplicación que se está ejecutando en ese momento y llama al adaptador para manejar el
paquete. A velocidades de enlace más rápidas, se crean más interrupciones y las tasas de CPU aumentan tambn. Esto
da por resultado un rendimiento deficiente del sistema. Si se utiliza un valor s elevado de ITR, la tasa de interrupción
será más baja y se obtendrá un mejor rendimiento de la CPU.
NOTA: una tasa de ITR más elevada significa también que el controlador tiene más latencia para manejar los
paquetes. Si el adaptador está manejando muchos paquetes pequos, es mejor reducir la ITR de manera que el
controlador puede responder mejor a los paquetes entrantes y salientes.
La modificación de este valor puede mejorar el volumen de tfico con algunas configuraciones de red y de sistemas; sin
embargo, la configuración predeterminada es la mejor para las configuraciones más comunes de red y de sistemas. Nunca
cambie esta configuración sin comprobar que el cambio deseado resultará en un mejoramiento del rendimiento de la red.
Valores por defecto Adaptación
Rango l Adaptación
l Extremo
l Alto
l Medio
l Bajo
l Mínimo
l Desactivado
Características del dispositivo
18
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Interrupt Moderation Rate" -
DisplayValue "Adaptive"
Descarga de la suma de comprobación de IPv4
Permite que el adaptador calcule la suma de comprobación de IPv4 de los paquetes entrantes y salientes. Esta función
aumenta el rendimiento de transmisión y recepción de IPv4, y reduce el uso de la CPU.
Cuando la Descarga está desactivada, el sistema operativo verificará la suma de comprobación de IPv4.
Cuando la Descarga está activada, el adaptador completa la verificación en lugar del sistema operativo.
Valores por defecto Habilitado para recepción y transmisión
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y
transmisión
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "IPv4 Checksum Offload" -
DisplayValue "Tx Enabled"
Tramas Jumbo
Activa o desactiva la función de paquetes Jumbo. El tamaño estándar de trama Ethernet es de unos 1514 bytes, mientras
que los paquetes Jumbo son de mayor tamaño. Los paquetes Jumbo pueden elevar el rendimiento y reducir el uso de la
CPU. Sin embargo, puede que se cree más latencia.
Active los paquetes Jumbo únicamente si TODOS los dispositivos de la red las admiten y si están configurados para utilizar
el mismo tamaño de trama. Cuando configure los paquetes Jumbo en otros dispositivos de la red, tenga en cuenta que los
dispositivos de red calculan los tamaños de los paquetes Jumbo de forma distinta. Algunos dispositivos incluyen el tamo
de la trama en la información de cabecera, mientras que otros no lo hacen. Los adaptadores Intel no incluyen el tamaño de
la trama en la información de cabecera.
Restricciones
l Los protocolos compatibles se limitan a IP (TCP, UDP).
l Las tramas Jumbo requieren conexiones de conmutador compatibles que envíen dicho tipo de tramas. Si desea
más información, póngase en contacto con el proveedor de conmutadores.
l Si se utilizan tramas Ethernet de tamaño estándar (de 64 a 1518 bytes), no hay ninn beneficio en configurar
Tramas Jumbo.
l La configuración de paquetes Jumbo del conmutador debe establecerse al menos en 8 bytes más que la
configuración del adaptador para los sistemas operativos Microsoft Windows, y al menos en 22 bytes más para
todos los des sistemas operativos.
l Las tramas Jumbo no son compatibles con las VLAN en Microsoft Windows 10. Los únicos sistemas operativos de
Microsoft que admiten tramas Jumbo en VLAN son Microsoft Windows Server 2008 R2, Microsoft Windows Server
2012 y Microsoft Windows Server 2012 R2.
Características del dispositivo
19
Valores por
defecto
Deshabilitado
Rango Deshabilitado (1514), 4088 ó 9014 bytes (en el conmutador, agregue 4 bytes al tamaño para el CRC
y 4 bytes más si utiliza VLAN).
NOTAS:
l El hardware completo debe ser compatible con esta función; si no es así, se descartarán los paquetes.
l Algunos adaptadores Intel que admiten los paquetes Jumbo tienen un límite de tamaño de trama de 9238
bytes, con un límite de tamaño de MTU correspondiente de 9216 bytes.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Jumbo Packet" -DisplayValue
"4088 Bytes"
Descarga de envío grande (IPv4 e IPv6)
Configura el adaptador para descargar la tarea de los mensajes TCP de segmentación en las tramas Ethernet lidas. El
límite máximo de tamaño de trama para la descarga de eno grande se configura en 64 000 bytes.
Debido a que el hardware del adaptador puede efectuar la segmentación de los datos mucho más rápidamente que el
software del sistema operativo, esta función puede aumentar el rendimiento de transmisión. Ades, el adaptador utiliza
menos recursos de la CPU.
Valores por defecto Habilitado
Rango l Habilitado
l Deshabilitado
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Large Send Offload V2
(IPv4)" -DisplayValue "Enabled"
Estado de enlace en interfaz desactivada
Establece si el enlace está activado o desactivado cuando la interfaz está desactivada. Si está configurado como Disabled
(Desactivado) y se desactiva una interfaz (utilizando una herramienta administrativa, o de otra manera), el puerto perde el
enlace. Esto permite que un conmutador conectado detecte que la interfaz ya no está activa. Sin embargo, si Wake on LAN
o la capacidad de gestión están activados en este puerto, el enlace permanece activo.
Valores por defecto Habilitado
Rango l Habilitado
l Deshabilitado
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Características del dispositivo
20
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Link State on Interface
Down" -DisplayValue "Enabled"
Dirección administrada localmente
Sustituye la dirección MAC inicial con una dirección MAC asignada por el usuario. Para introducir una nueva dirección de
red, escriba unmero hexadecimal de 12 dígitos en este cuadro.
Valores
por
defecto
Ninguna
Rango 0000 0000 0001 - FFFF FFFF FFFD
Excepciones:
l No utilice una dirección de multidifusión (el bit menos significativo del byte alto = 1). Por ejemplo, en
la dirección 0Y123456789A, "Y" no puede ser unmero impar (Y debe ser 0, 2, 4, 6, 8, A, C, o E).
l No utilice solamente ceros o solamente la letra F.
Si no escribe una dirección, la dirección será la dirección original de la red del adaptador.
Por ejemplo,
Multidifusión: 0123 4567 8999 Difusión: FFFF FFFF FFFF
Unicast (legal): 0070 4567 8999
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Locally Administered
Address" -DisplayValue "<desired address>"
Registrar evento de estado de enlace
Este valor se utiliza para habilitar o deshabilitar el registro de los cambios de estado de enlace. Si se activa, cada suceso
de cambio de activación o desactivación de enlace genera un mensaje que se muestra en el registro de sucesos del
sistema. Este mensaje contiene la velocidad y el dúplex del enlace. Los administradores pueden ver el mensaje del suceso
en el registro de sucesos del sistema.
Se registran los sucesos siguientes.
l El enlace está activado.
l El enlace está deshabilitado.
l No coincide elplex.
l Se detectó el Spanning Tree Protocol.
Valores por defecto Habilitado
Rango Habilitado, deshabilitado
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Log Link State Event" -
DisplayValue "Enabled"
Características del dispositivo
21
Interrupciones de baja latencia
LLI permite al dispositivo de red ignorar el esquema de moderación de interrupciones configuración de acuerdo con el tipo
de datos que se recibe. Configura los paquetes TCP entrantes que activan una interrupción inmediata, lo que permite al
sistema procesar el paquete con mayor rapidez. Una menor latencia de datos permiten que algunas aplicaciones accedan
con más rapidez a los datos de la red.
NOTA: cuando LLI está habilitado, el uso de CPU del sistema puede aumentar.
Puede utilizarse LLI para paquetes de datos que contienen una etiqueta TCP PSH en el encabezado o para puertos TCP
especificados.
l Paquetes con la etiqueta TCP PSH Flag: cualquier paquete entrante con la etiqueta TCP PSH activa una
interrupción inmediata. La etiqueta PSH es configurada por el dispositivo remitente.
l Puertos TCP: todos los paquetes recibidos en los puertos especificados activarán una interrupción inmediata.
Pueden especificarse hasta ocho puertos.
Valores por defecto Deshabilitado
Rango l Deshabilitado
l Basado en etiqueta PSH
l Basado en puerto
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Low Latency Interrupts" -
DisplayValue "Port-Based"
Detección de controladores maliciosos (MDD) para VF
Algunos dispositivos Ethernet Intel utilizan la detección de controladores maliciosos (MDD) para detectar tfico malicioso
desde la VF y deshabilitar las colas de transmisión/recepción o descartar el paquete que causa el problema hasta que haya
un reinicio del controlador de la VF. Puede ver mensajes de MDD en el registro de eventos de la PF.
l Si el dispositivo es compatible con reinicios autoticos de la VF y el controlador detecta un evento de MDD en la
ruta de recepción, la PF reiniciará automáticamente la VF y rehabilitará las colas. Si los reinicios automáticos de la
VF están deshabilitados, la PF no reinicia automáticamente la VF cuando detecte eventos de MDD. Consulte la
tabla a continuación para conocer las funciones de MDD compatibles.
l Si el controlador de la PF registra eventos de MDD de la VF, confirme que está instalado el controlador de la VF
correcto.
l Para restaurar la funcionalidad, puede recargar manualmente la VF o VM o, si es compatible con el dispositivo,
habilitar los reinicios automáticos de la VF.
Característica Adaptadores de
controladora de
Ethernet Intel serie
800
Adaptadores de
controladora de
Ethernet Intel serie
700
Adaptadores de
controladora de
Ethernet Intel serie
500
Conexn de
red Inte
Gigabit I350
Reinicia automáticamente la VF
y rehabilita las colas después
de eventos de MDD.
Si se ha habilitado
Puede deshabilitar reinicios
automáticos de la VF desps
de eventos de MDD.
No No No
Características del dispositivo
22
Reinicio automático de VF desps de eventos de MDD
Reinicia de forma automática la quina virtual inmediatamente desps de que el adaptador detecte un evento de
detección de controladores maliciosos (MDD) en la ruta de recepción.
Valores por defecto Deshabilitado
Rango l Deshabilitado
l Habilitado
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "MDD Auto Reset VFs" -
DisplayValue "Enabled"
Número máximo de colas de RSS por puerto virtual
Fija la cantidad máxima de pares de colas de ajuste de escala en lado de recepción (RSS) por VF.
Valores por defecto 4 colas
Rango l 2 colas
l 4 colas
l 8 colas
l 16 colas
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Max Number of RSS Queues Per
Vport" -DisplayValue "4 Queues"
Virtualización de redes mediante la encapsulación de
enrutamiento genérico (NVGRE)
La Virtualización de redes mediante la encapsulación de enrutamiento genérico (NVGRE) aumenta la eficiencia del
enrutamiento del tfico de red en un entorno virtualizado o en la nube. Algunos dispositivos de red Ethernet Intel® realizan
el procesamiento NVGRE (virtualización de redes mediante la encapsulación de enrutamiento gerico), descargándolo
del sistema operativo. Este procesamiento reduce la utilización de la CPU.
NOTA: si un puerto está en el modo NPar, NVGRE (el ajuste de descarga de tareas encapsulada) solo está
disponible en la primera partición del puerto.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "NVGRE Encapsulated Task
Offload" -DisplayValue "Enabled"
Características del dispositivo
23
Particiones NIC
Particiones de tarjeta de interfaz de red (NIC) (NPar) permite a los administradores de red crear varias particiones para
cada puerto físico en una tarjeta de adaptador de red y establecer diferentes asignaciones de ancho de banda en cada
partición. Para la red y el sistema operativo, cada partición aparece como un puerto físico independiente en el adaptador.
Esto facilita la reducción del número de puertos de conmutación y la complejidad de cableado mientras se mantiene la
segmentación de red y el aislamiento. Además, la asignación de ancho de banda flexible por partición permite el uso
eficiente del enlace.
NPar está disponible en Linux y ESXi, así como en las versiones de Windows Server y Windows Server Core a partir de
2012 R2.
Los siguientes adaptadores admiten NPar. Tenga en cuenta que NPar admite un máximo de 8 particiones por controlador.
l Adaptador de red Ethernet Intel® 25G 2P XXV710
NOTA: los adaptadores 25GbE no son compatibles con NPAR y NPAR-EP en sistemas operativos VMware.
l Ethernet Intel® 10G 4P X710/I350 rNDC
l Ethernet Intel® 10G 4P X710-k bNDC
l Ethernet Intel® 10G 4P X710 rNDC
l Ethernet Intel® 10G 2P X710-k bNDC
l Ethernet Intel® 10G X710-k bNDC
l Adaptador de red convergente Ethernet Intel® X710
l Adaptador de red convergente Intel® X710-T
l Adaptador de Ethernet Intel® X710-DA2 para servidores para OCP
NOTAS:
l Los adaptadores solo admiten NPar en modo NIC (LAN).
l Los siguientes elementos son compatibles únicamente en la primera partición de cada puerto:
l PXE Boot
l iSCSI Boot
l Configuraciones de velocidad y dúplex
l Control de flujo
l Opciones de administración de energía
l SR-IOV
l Procesamiento de NVGRE
l Algunos adaptadores solo admiten Wake on LAN en la primera partición del primer puerto.
l Los límites de recursos de Microsoft Windows pueden afectar almero de puertos que se muestran. Si tiene
varios adaptadores instalados en un sistema y habilita NPar o NParEP en los adaptadores, el Administrador
de dispositivos de Windows podría no mostrar todos los puertos.
l Es posible que el ancho de bandanimo no esté distribuido equitativamente entre las particiones NIC al
cambiar el modo NPAR/NPAR EP. Los valores de ancho de bandanimo se pueden ajustar desps de
cambiar el modo NPAR/NPAR EP.
l La descarga de iSCSI no admite particiones NIC de dispositivos basados en Intel X710. Los adaptadores
X710 muestran incorrectamente un valor "True" para "Compatibilidad con descarga de iSCSI". Mediante la
activación del "modo descarga de iSCSI" de lagina [NIC Partitioning Configuration] se activa la partición
del tfico de almacenamiento de iSCSI.
l La prueba de diagnóstico de bucle de retorno no se admite cuando el dispositivo está en modo NPAR.
l Cuando configure el sistema para un sistema operativo basado en Microsoft Windows, no active el modo
descarga de iSCSI en la configuración de partición para dispositivos Intel® X710, ya sea directamente en la
BIOS a través de HII o mediante una configuración remota como racadm o WSMAN.
l Si tiene NPAR activado, asegúrese de que la configuración avanzada "Perfil de equilibrio de cargas RSS"
está establecida en NUMAScalingStatic.
l NVGRE no se admite cuando el dispositivo está en modo NPAR. Si el dispositivo tiene NPAR activado,
NVGRE (el ajuste de descarga de tareas encapsuladas de la ficha Avanzado del administrador de
dispositivos de Windows) no se admite.
l Con NPAR activado en dispositivos con controladoras de Ethernet Intel® serie 700, todas las particiones
Características del dispositivo
24
perden la conexión de red durante 2-3 segundos mientras se inicializa la partición raíz (la primera partición
del puerto físico).
Modo NParEP
El modo NParEP es una combinación de NPar y PCIe ARI, y aumenta elmero máximo de particiones en un adaptador a
16 por controlador.
Compatibilidad con la plataforma NParEP
Ranura PCI Express
Plataforma de Dell
EMC
OCP
Mezz
Ranura NDC de
bastidor
1 2 3 4 5 6 7 8 9 10 11 12 13
C4130
C4140 no no
C6420
R230 no no
R240 no no
R330 no no
R340 no no
R430
R440
R530 no no
R530XD no
R540 no
R630
R640
R730
R730XD
R740
R740XD2 no no
R830
R840
R930
R940
T130 no no no no
T140 no no no no
T330 no no no
Características del dispositivo
25
Ranura PCI Express
Plataforma de Dell
EMC
OCP
Mezz
Ranura NDC de
bastidor
1 2 3 4 5 6 7 8 9 10 11 12 13
T340 no no no no
T430 no no
T440 no
T630 no
T640
Las siguientes plataformas de Dell EMC son compatibles con el modo NParEP en todas las ranuras.
l C6520
l C6525
l R650
l R650xa
l R6515
l R6525
l R750
l R750xa
l R7525
l R7515
Ranura Mezzanine
Plataforma de Dell EMC Ranura NDC Blade B C
FC430
FC630
FC830
M630
M630 para VRTX
M640
M640 para VRTX
M830
M830 para VRTX
MX740c
MX840c
Las plataformas o ranuras compatibles se indican con "sí". Las plataformas no compatibles se indican con un "no". Cuando
no es aplicable, se indica con celdas en blanco.
Características del dispositivo
26
Configuracn del modo NPar
Configuracn de NPar desde el Administrador de inicio
Al iniciar el sistema, pulse la tecla F2 para acceder al menú System Setup (Configuración del sistema). Seleccione Device
Settings (Configuración de dispositivo) de la lista que aparece en System Setup Main Menu (Me principal de
configuración del sistema) y, a continuación, seleccione su adaptador de la lista para acceder al menú de Configuración de
dispositivo. Seleccione Device Level Configuration (Configuración de nivel de dispositivo) en la lista que aparece en Main
Configuration Page (Página principal de configuración). Aparece la configuración de virtualización en Device Level
Configuration (Configuración de nivel de dispositivo).
En la lista desplegable Virtualization Mode (Modo de virtualización) hay cuatro opciones.
l None (Ninguno): el adaptador funciona con normalidad.
l NPar: permite un máximo de 8 particiones en el adaptador. Si selecciona el modo de virtualización NPar, se le
presentará la opción de habilitar el modo NParEP, que ampliará elmero de particiones por adaptador a un total
de 16, emparejando NPar con PCIe ARI.
NOTAS:
l Cuando un adaptador está funcionando en el modo NPar, se limita a 8 particiones en total. Un
adaptador de dos puertos tend cuatro particiones por puerto. Un adaptador de cuatro puertos tend
dos particiones por puerto.
l El modo NParEP solo se puede activar cuando el modo NPar está habilitado.
l Cuando un adaptador está funcionando en el modo NParEP, se limita a 16 particiones en total. Un
adaptador de dos puertos tend ocho particiones por puerto. Un adaptador de cuatro puertos tend
cuatro particiones por puerto.
l SR-IOV: activa SR-IOV en el puerto.
l NPar+SR-IOV: permite hasta 8 particiones (funciones físicas) para el adaptador y activa SR-IOV.
NOTAS:
l SR-IOV está limitado a la partición raíz de cada puerto.
l Cuando un adaptador se ejecuta en modo NPar, la configuración de virtualización (SR-IOV) se aplica
a todos los puertos del adaptador y a todas las particiones de cada puerto. Los cambios realizados en
la configuración de virtualización en un puerto se aplican a todos los puertos del adaptador.
Cuando haya terminado la selección, haga clic en el botón Back (Regresar) y regresa a la Main Configuration Page
(Configuración de lagina principal). Haga clic en el nuevo elemento, titulado NIC Partitioning Configuration
(Configuración de particiones NIC) en la lista de configuraciones para ir a lagina NIC Partitioning Configuration, donde
verá una lista con las particiones NPar (o NParEP) que hay en el adaptador.
Lagina Global Bandwith Allocation (Asignación de ancho de banda global) le permite especificar elnimo y el máximo
de asignación de ancho de banda garantizado para cada partición en un puerto. El ancho de banda TX mínimo es el ancho
de banda de transmisión de datos mínimo garantizado, como porcentaje de la velocidad completa de enlace de puerto
sico, que recibi la partición. El ancho de banda que se concede a la partición no caerá nunca por debajo del nivel que
se especifica aquí. El rango de valores lido es:
De 1 a (100 menos (número de particiones en el puerto físico) más 1).
Por ejemplo, si un puerto físico tiene 4 particiones, el rango sería:
De 1 a ((100 - 4) + 1 = 97)
El porcentaje de ancho de banda máximo representa el ancho de banda de transmisión máximo asignado a la partición
como porcentaje de la velocidad máxima de enlace del puerto físico. El rango de valores aceptado es de 0-100. El valor
puede utilizarse como limitador, en caso de que elija que una función determinada no pueda consumir el 100 % del ancho
de banda de un puerto (si estuviera disponible). La suma de todos los valores de ancho de banda máximo no está limitada,
pues no se puede utilizar nunca más del 100 % del ancho de banda de un puerto.
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
Características del dispositivo
27
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda máximo se
establecerá automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de bandanimo a tras del iDRAC con
el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para todas las
particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos pueden ser
diferentes de los valores que supuestamente se habían establecido. Para evitar este problema, establezca
los valores de porcentaje de ancho de bandanimo en todas las particiones mediante el uso de un único
trabajo, y aserese de que la suma de los valores es 100.
Haga clic en el botón Back (Regresar) cuando haya terminado de realizar la configuración de la asignación de ancho de
banda para volver a la página NIC Partitioning Configuration. Desde allí puede hacer clic en uno de los elementos de la
lista PartitionnConfiguration (Configuración de la partición n) en Global Bandwidth Allocation (Asignación de ancho de
banda global). Aparece una página de información de configuración de particiones en un puerto en particular. Puede ver
el modo de NIC, PCI; ID del dispositivo, Dirección PCI, la dirección MAC y la dirección MAC virtual (si procede) para todas
las particiones de cualquier puerto al hacer clic en los elementos de la lista de configuración de la partición.
Cuando haya finalizado la configuración de todas las particiones de un puerto, vuelva a lagina de configuración
principal, haga clic en el botón Finish (Finalizar) y luego haga clic en el botón OK (Aceptar) del cuadro de diálogo Success
(Saving Changes) (Correcto (Guardando los cambios)).
Repita el proceso de configuración de partición de todos los puertos de su adaptador.
NOTA: una vez que NPar se ha habilitado en una partición de un puerto, aparece habilitado para todas las
particiones posteriores en ese puerto. Si esa primera configuración de NPar incluía habilitar el modo NParEP, el
modo NParEP también aparece habilitado en todas las particiones posteriores en ese puerto.
Cuando haya configurado todas las particiones de todos los puertos en todos los adaptadores del servidor, vuelva al menú
principal de configuración del sistema y haga clic en el botón Finish (Finalizar). Luego, haga clic en Yes (Sí) para salir del
menú de configuración del sistema y reinicie el sistema con el fin de aplicar los cambios.
Una vez que el sistema haya completado el proceso de arranque, NPar permanece habilitado hasta que lo deshabilite
explícitamente desactivando la opción durante una secuencia de arranque posterior.
Configuracn de NPar en Microsoft Windows
Es posible configurar una partición de puerto de adaptador en Windows como cualquier puerto de adaptador. Ejecute el
Administrador de dispositivos, seleccione el dispositivo y abra las hojas de propiedades de la partición para configurar las
opciones.
NOTA: en Microsoft* Windows Server* 2019 (y versiones posteriores), debe utilizar Intel® PROSet para
Windows PowerShell para configurar NPar.
Activación de NPar
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "NIC Partitioning" -
DisplayValue "NPAR"
Opciones de inicio
En la ficha Boot Options (Opciones de arranque), se le informará de que el dispositivo está en modo NPar y que los ajustes
antiguos de protocolo de prearranque solo se pueden configurar en la partición raíz. Al hacer clic en el botón Properties
(Propiedades) se inicia la hoja de propiedades de la partición raíz en el adaptador.
Características del dispositivo
28
Para establecer esta opción mediante Windows PowerShell, busque la primera partición mediante el cmdlet Get-
IntelNetAdapter. Una vez que conozca el puerto con elmero de partición 0, utilice ese nombre de puerto en la utilidad
Bootutil para la configuración de opciones de arranque.
Opciones de administración de energía
La configuración de administración de energía solo se permite en la primera partición de cada puerto físico. Si selecciona la
pestaña Power Management (Administración de energía) mientras se selecciona cualquier partición que no sea la primera,
se le presenta texto en el diálogo de administración de energía que indica que no se pueden configurar los ajustes de
administración de energía en la conexión actual. Al hacer clic en el botón Properties (Propiedades) se iniciará la hoja de
propiedades de la partición raíz en el adaptador.
NOTA: las opciones de arranque y la configuración de administración de energía solo están disponibles en la
partición raíz de cada puerto físico.
Para establecer esta opción mediante Windows PowerShell, busque la primera partición mediante el cmdlet Get-
IntelNetAdapter. Una vez que conozca el puerto con elmero de partición 0, utilice ese nombre de puerto con los cmdlets
Get-IntelNetAdapterSetting y Set-IntelNetAdapterSetting.
Control de flujo
Puede cambiar la configuración del control de flujo para cualquier partición en un puerto determinado. No obstante, cuando
se realiza un cambio en la configuración de control de flujo de una partición asociada a un puerto en un adaptador que
funciona en modo NPar, el nuevo valor se aplicará a todas las particiones de ese puerto concreto.
El control de flujo se alcanza al seleccionar la ficha Advanced (Avanzado) y, a continuación, seleccionar el botón
Properties (Propiedades) y Flow Control (Control de flujo) de la lista de opciones de la lista Settings (Ajustes) del diálogo
que se muestra.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo, Set-
IntelNetAdapterSetting -Name "<nombre del adaptador>" -DisplayName "Control de flujo" -DisplayValue “Negociación
automática”.
Identificación de las asociaciones de puerto
El diálogo Hardware Information (Información del hardware) en las hojas de propiedades de Intel PROSet facilita la
identificación del puerto físico asociado a una partición concreta. Hay un botón Identify Adapter (Identificar adaptador) en
la ficha Link Speed (Velocidad de enlace) y al hacer clic en ese botón parpadeará el indicador luminoso ACK/Link en el
puerto asociado a la partición activa.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Test-IntelNetAdapterSetting. Por ejemplo, Test-
IntelNetIdentifyAdapter -Name "<nombre del adaptador>" -Seconds 100.
Configuración de ancho de banda de partición
El diálogo Bandwidth Configuration (Configuración de ancho de banda) proporciona una indicación del puerto para el que
se están realizando ajustes en la actualidad, sobre una lista de las particiones de ese puerto y sus asignaciones de ancho
de banda actuales (Min%, Max%). La configuración del ancho de banda de la partición se alcanza al hacer clic en el botón
Bandwidth Configuration (Configuración del ancho de banda) en la pestaña Link Speed (Velocidad de enlace).
El ancho de banda asignado a cada partición en el puerto nunca cae por debajo del valor definido en Min%. Para todas
las particiones en el mismo puerto físico, el porcentaje de ancho de bandanimo para todas las particiones debe
establecerse en cero, o la suma de todos los porcentajes mínimos de ancho de banda en cada partición debe ser igual a
100, donde el rango de porcentajes de ancho de bandanimos está entre 1 y (100-n)%, siendo n el número de
particiones de un puerto en particular. Por ejemplo, en un puerto con cuatro particiones definidas:
P1=0
P2=0
P1=10
P2=20
P1=20
P2=80
Características del dispositivo
29
P3=0
P4=0
Válida
P3=30
P4=40
Válida
P3=0
P4=0
NO lida
Los valores lidos para Max% son el valor de "Min%" de esa partición hasta "100". Por ejemplo, si el valor de Min% para la
Partición 1 es 50%, el rango de Max% de esa partición es "50"-"100". Si hace que el valor Max% de una partición supere el
100% incrementando el valor con el control demero, se muestra un error y se reduce Max% hasta 100 %. La suma de
los valores Max% de todas las particiones de un puerto concreto no tiene límites.
Para cambiar el valor de Min% o Max%, seleccione una partición en la lista que se muestra y utilice las flechas hacia arriba
o hacia abajo en “Selected Partition Bandwidth Percentages” (Porcentajes de ancho de banda de la partición
seleccionada).
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda máximo se
establecerá automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de bandanimo a tras del iDRAC con
el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para todas las
particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos pueden ser
diferentes de los valores que supuestamente se habían establecido. Para evitar este problema, establezca
los valores de porcentaje de ancho de bandanimo en todas las particiones mediante el uso de un único
trabajo, y aserese de que la suma de los valores es 100.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterMaximumBandwidthPercentage -Name "Adaptador de red convergente Intel(R) Ethernet X710" -
MaxBwPercent 100
Set-IntelNetAdapterMinimumBandwidthPercentage -Name "Adaptador de red convergente Intel(R) Ethernet X710" -
Partition1 25 -Partition2 25 -Partition3 25 -Partition4 25
Configuraciones de velocidad y plex
La configuración de velocidad y dúplex para un puerto en particular puede cambiarse desde cualquier partición asociada a
ese puerto. Sin embargo, como todas las particiones de un puerto concreto en un adaptador que funciona en modo NPar
comparten el mismo módulo que se conecta al puerto, el cambio de la configuración de velocidad y dúplex se traduci en
que el nuevo valor se establezca en todas las particiones en el mismo puerto físico.
Cambiar la configuración de velocidad y dúplex de un puerto en un adaptador que funciona en modo NPar ha que se
vuelva a cargar el controlador de cada partición asociada a ese puerto. Esto puede producir unardida momentánea de
enlace.
Diagnósticos en línea
Se pueden realizar pruebas en línea en el modo NPar sin perder el enlace del adaptador. Las siguientes pruebas de
diagnóstico están disponibles para todas las particiones de un puerto determinado, mientras un adaptador funcione en
modo NPar:
l EEPROM
l Registro
l Integridad de NVM
l Conexión
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Test-IntelNetAdapterSetting. Por ejemplo, Test-
IntelNetDiagnostics -Name "<nombre del adaptador>" -Test Hardware.
Características del dispositivo
30
Diagnósticos sin conexión
No se admiten diagnósticos sin conexión mientras el adaptador funcione en modo NPar. Las pruebas de bucle de retorno y
cable sin conexión no están permitidas en modo NPar.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Test-IntelNetAdapterSetting. Por ejemplo, Test-
IntelNetDiagnostics -Name "<nombre del adaptador>" -Test Hardware.
Virtualización
Los ajustes para la virtualización (colas de máquinas virtuales y SR-IOV) se encuentran en la pestaña Advanced
(Avanzado) de la hoja de propiedades de Device Manager (Administrador de dispositivos) o de Intel® PROSet Adapter
Configuration Utility, y luego seleccionando “Virtualization” (Virtualización) en la lista Settings (Ajustes).
Cuando un adaptador está funcionando en modo NPar, solo la primera partición de cada puerto físico puede estar
configurada con la configuración de virtualización.
NOTA: Microsoft* Hyper-V* debe estar instalado en el sistema a fin de que la configuración de virtualización esté
disponible. Si Hyper-V* no está instalado, la ficha Virtualización de PROSet no aparece.
Para establecer esta opción mediante Windows PowerShell, busque la primera partición mediante el cmdlet Get-
IntelNetAdapter. Una vez que conozca el puerto con elmero de partición 0, utilice ese nombre de puerto con los cmdlets
Get-IntelNetAdapterSetting y Set-IntelNetAdapterSetting.
Configuracn de NPAR en Linux
En los adaptadores Intel® basados en la serie 710 que lo admiten, puede configurar varias funciones en cada puerto físico.
Configure estas funciones mediante la Configuración del sistema/BIOS.
El ancho de banda TX mínimo es el ancho de banda de transmisión de datos mínimo garantizado, como porcentaje de la
velocidad completa de enlace de puerto físico, que recibirá la partición. El ancho de banda que se concede a la partición no
cae nunca por debajo del nivel que se especifica aquí.
El rango de los valores mínimos de ancho de banda es:
De 1 a (100 menos (número de particiones en el puerto físico) más 1).
Por ejemplo, si un puerto físico tiene 4 particiones, el rango sería:
De 1 a ((100 - 4) + 1 = 97)
El porcentaje de ancho de banda máximo representa el ancho de banda de transmisión máximo asignado a la partición
como porcentaje de la velocidad máxima de enlace del puerto físico. El rango de valores lido es 1-100. El valor puede
utilizarse como limitador, en caso de que elija que una función determinada no pueda consumir el 100 % del ancho de
banda de un puerto (si estuviera disponible). La suma de todos los valores de ancho de banda máximo no está limitada,
pues no se puede utilizar nunca más del 100 % del ancho de banda de un puerto.
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda máximo se
establecerá automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de bandanimo a tras del iDRAC con
el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para todas las
particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos pueden ser
diferentes de los valores que supuestamente se habían establecido. Para evitar este problema, establezca
los valores de porcentaje de ancho de bandanimo en todas las particiones mediante el uso de un único
trabajo, y aserese de que la suma de los valores es 100.
Una vez finalizada la configuración inicial, puede establecer asignaciones de ancho de banda diferentes en cada función
de la manera siguiente:
Características del dispositivo
31
1. Cree un directorio nuevo denominado /config
2. Edite etc/fstab para que incluya:
configfs /config configfs defaults
3. Cargue (o recargue) el controlador i40e
4. Monte /config
5. Cree un directorio nuevo bajo config para cada partición en la que desee configurar el ancho de banda.
Aparecen tres archivos en el directorio config/partition:
- max_bw
- min_bw
- commit
Lea en max_bw para visualizar el ajuste máximo actual de ancho de banda.
Escriba en max_bw para establecer el ancho de banda máximo de esta función.
Lea en min_bw para visualizar el ajustenimo actual de ancho de banda.
Escriba en min_bw para establecer el ancho de bandanimo de esta función.
Escriba '1' en commit para guardar los cambios.
NOTAS:
l commit es de solo escritura. Si intenta leerlo, recibi un error.
l La escritura en commit solo se admite en la primera función de un puerto determinado. Si escribe en una
función posterior, recibi un error.
l No se admite superar el ancho de bandanimo. El NVM del dispositivo subyacente establece el ancho de
banda mínimo en los valores admitidos de una manera indeterminada. Elimine todos los directorios que
estén bajo config y vuelva a cargarlos para ver cuáles son los valores reales.
l Para descargar el controlador, primero debe eliminar los directorios creados anteriormente en el paso 5.
Ejemplo de establecer el ancho de bandanimo y ximo (suponiendo que haya cuatro funciones en el puerto eth6-eth9
y que eth6 es la primera función del puerto):
# mkdir /config/eth6
# mkdir /config/eth7
# mkdir /config/eth8
# mkdir /config/eth9
# echo 50 > /config/eth6/min_bw
# echo 100 > /config/eth6/max_bw
# echo 20 > /config/eth7/min_bw
# echo 100 > /config/eth7/max_bw
# echo 20 > /config/eth8/min_bw
# echo 100 > /config/eth8/max_bw
# echo 10 > /config/eth9/min_bw
# echo 25 > /config/eth9/max_bw
# echo 1 > /config/eth6/commit
Características del dispositivo
32
Salir del modo NPar
El modo NPar se desactiva en el menú de configuración del sistema durante el reinicio.
Reinicie el sistema y pulse la tecla F2 para acceder al menú System Setup (Configuración del sistema). Seleccione Device
Settings (Configuración de dispositivo) de la lista que aparece en System Setup Main Menu (Me principal de
configuración del sistema) y, a continuación, seleccione su adaptador de la lista para acceder al menú de Configuración de
dispositivo. Seleccione Device Level Configuration (Configuración de nivel de dispositivo) en la lista que aparece en Main
Configuration Page (Página principal de configuración). Aparece la configuración de virtualización en Device Level
Configuration (Configuración de nivel de dispositivo).
En la lista Virtualization Mode (Modo de virtualización), seleccione "None" (Ninguno). A continuación, haga clic en el botón
Back (Regresar), que le devolve a la página de configuración principal. En ella, haga clic en el botón Finish (Finalizar)
para guardar el cambio y reiniciar el sistema. Cuando el sistema acabe de reiniciarse, NPar ya no estará activo.
NOTA: cuando NPar ha sido deshabilitado y el sistema completa el reinicio, también se deshabilitan otros ajustes
relacionados con la virtualización, como NParEP o SR-IOV.
Opciones para la mejora del rendimiento
Optimizacn del rendimiento
Puede definir la configuración avanzada de los adaptadores de red Intel para ayudar a optimizar el rendimiento del
servidor.
En la sección Optimización general se incluyen secciones que proporcionan información acerca de los tres modelos de uso
del servidor:
l Optimizado para respuesta rápida y baja latencia: útil para servidores de vídeo, audio y con clúster de cálculo de
alto rendimiento (HPCC)
l Optimizado para rendimiento: útil para servidores de archivos y de copia de seguridad y recuperación de datos
l Optimizado para utilización de la CPU: útil para servidores de aplicaciones, web, correo y bases de datos
NOTAS:
l Los usuarios de Linux deberán consultar la sección sobre Linux de esta guía y el archivo LÉAME del paquete
de controlador de Linux para ver los detalles de mejora del rendimiento específicos de Linux.
l Las recomendaciones que se indican a continuación son pautas y deben ser tratadas como tales. Hay más
factores, como las aplicaciones instaladas, el tipo de bus, la topología de la red y el sistema operativo, que
tambn afectan el rendimiento del sistema.
l Estos ajustes los debe realizar un administrador de red con sólida experiencia. No se garantiza que estos
mejoren el rendimiento. Todos los ajustes que se muestran aqpueden no estar disponibles mediante la
configuración del controlador de red, el sistema operativo o la configuración del BIOS del sistema.
l Al utilizar software de prueba de rendimiento, consulte la documentación de la aplicación para obtener
resultados óptimos.
Características del dispositivo
33
Optimización general
l Instale el adaptador en una ranura adecuada.
NOTA: algunas ranuras PCIe x8 están configuradas en realidad como ranuras x4. Estas ranuras tienen un
ancho de banda insuficiente para la velocidad de línea entera con algunos dispositivos de doble puerto. El
controlador puede detectar esta situación y escribirá el mensaje siguiente en el registro del sistema: "PCI
Express bandwidth available for this card is not sufficient for optimal performance" (El ancho de banda de PCI
Express disponible para esta tarjeta no es suficiente para conseguir un rendimiento óptimo). "For optimal
performance a x8 PCI-Express slot is required." (Para conseguir un rendimiento óptimo es necesaria una
ranura x8 PCI-Express). Si se produce este error, traslade el adaptador a una ranura x8 verdadera para
solucionar el problema.
l Para que un adaptador de red de la serie 710 de Intel® alcance su pleno potencial, debe instalarlo en una ranura
PCIe Gen3 x8. Si se instala en una ranura más corta, o en una ranura Gen2 o Gen1, el rendimiento del adaptador se
verá limitado.
l Utilice el cableado adecuado para su dispositivo.
l Aumente elmero de recursos de TCP y de zócalo a partir del valor predeterminado. Para los sistemas basados
en Windows, no hemos identificado pametros de sistema, además del tamaño de ventana TCP, que afecten
significativamente el rendimiento.
l Aumente el tamaño de asignación de recursos del controlador (búferes de transmisión y recepción). Sin embargo, la
mayoría de los patrones de tráfico TCP funcionan mejor cuando elfer de transmisión se establece en el valor
predeterminado y elfer de recepción se establece en el valor mínimo.
Tramas Jumbo
La habilitación de las tramas Jumbo puede aumentar el rendimiento. Debe habilitar las tramas Jumbo en todos los
componentes de red para poder aprovechar las ventajas.
Colas de RSS
Si cuenta con varios puertos de 10 Gpbs (o más rápidos) instalados en un sistema, las colas RSS de cada puerto de
adaptador pueden ajustarse para utilizar conjuntos de procesadores no superpuestos dentro del Nodo/Zócalo de NUMA
local del adaptador. Cambie elmero de procesador base de RSS para cada puerto de adaptador, de manera que la
combinación del procesador base y el número ximo de la configuración de los procesadores RSS garanticen que no se
solapen los núcleos. Para sistemas Microsoft Windows, haga lo siguiente:
1. Identifique los puertos de adaptador para ajustar e inspeccione RssProcessorArray utilizando el cmdlet Get-
NetAdapterRSS de PowerShell.
2. Identifique los procesadores con distancias 0 NUMA. Estos son los núcleos en el Nodo/Zócalo de NUMA local del
adaptador y proporcionarán el mejor rendimiento.
3. Ajuste el procesador base de RSS en cada puerto para utilizar un conjunto de procesadores no superpuestos
dentro del conjunto de procesadores locales. Puede hacerlo manualmente o utilizando el siguiente comando de
PowerShell:
Set-NetAdapterAdvancedProperty -Name <Nombre de adaptador> -DisplayName "RSS Base
Processor Number" -DisplayValue <Valor de procesador base de RSS>
4. Utilice el cmdlet Get-NetAdapterAdvancedproperty para comprobar que se han configurado los valores correctos:
Get-NetAdapterAdvancedproperty -Name <nombre del adaptador>
Por ejemplo: para un adaptador de 4 puertos con los procesadores locales 0, 2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28,
30, y 'Max RSS processor' de 8, establezca los procesadores de base de RSS en 0, 8, 16 y 24.
Características del dispositivo
34
Afinidad de la CPU
Al transmitir el tfico por varios puertos de red utilizando una aplicación E/S que se ejecuta en la mayoría o en todos los
cleos de su sistema, puede establecer la afinidad de CPU para esa aplicación con menos núcleos. Esto debería reducir
la utilización de la CPU y, en algunos casos, puede aumentar el rendimiento del dispositivo. Los núcleos seleccionados
para la afinidad de CPU deben ser locales para el procesador Nodo/Grupo del dispositivo de red afectado. Puede utilizar el
comando de PowerShell Get-NetAdapterRSS para enumerar los núcleos que son locales para un dispositivo. Puede que
sea necesario aumentar elmero decleos asignados a la aplicación para maximizar el rendimiento. Consulte la
documentación de su sistema operativo para obtener más detalles sobre la configuración de la afinidad de CPU.
Optimizado para respuesta rápida y baja latencia
l Minimice o deshabilite la tasa de moderación de interrupciones.
l Deshabilite la descarga de segmentación TCP.
l Deshabilite los paquetes Jumbo.
l Aumente los descriptores de transmisión.
l Aumente los descriptores de recepción.
l Aumente las colas de RSS.
Optimizado para rendimiento
l Active los paquetes Jumbo.
l Aumente los descriptores de transmisión.
l Aumente los descriptores de recepción.
l En los sistemas compatibles con NUMA, establezca el nodo NUMA preferido en cada adaptador para conseguir un
mejor escalado entre nodos NUMA.
Optimizado para utilización de la CPU
l Maximice la tasa de moderación de interrupciones.
l Conserve el valor predeterminado para el número de descriptores de recepción; evite establecer números grandes
de descriptores de recepción.
l Reduzca las colas de RSS.
l En entornos Hyper-V, reduzca elmero máximo de CPU de RSS.
Perfil de rendimiento
Los perfiles de rendimiento se admiten en los adaptadores Intel® 10GbE y permiten optimizar rápidamente el rendimiento
del adaptador Ethernet Intel®. Al seleccionar un perfil de rendimiento se ajustarán automáticamente algunos ajustes
avanzados a su valor óptimo para la aplicación seleccionada. Por ejemplo: un servidor estándar tiene un rendimiento
óptimo con solo dos colas RSS (Receive-Side Scaling), pero un servidor web necesita más colas RSS para una mejor
escalabilidad.
Debe instalar Intel® PROSet para poder utilizar perfiles de rendimiento.
Perfiles
l Servidor estándar: este perfil está optimizado para servidores típicos.
l Servidor web: este perfil está optimizado para servidores web basados en IIS y HTTP.
l Servidor de virtualización: este perfil está optimizado para el entorno de virtualización Hyper-V de
Microsoft.
l Servidor de almacenamiento: este perfil está optimizado para FCoE (Fibre Channel over Ethernet) o
para el rendimiento de iSCSI en DCB. Con la selección de este perfil se deshabilitará SR-IOV y VMQ.
l Almacenamiento + virtualización: este perfil está optimizado para una combinación de requisitos de
almacenamiento y virtualización.
l Latencia baja: este perfil está optimizado para minimizar la latencia de red.
Características del dispositivo
35
NOTAS:
l No están disponibles todas las opciones en todas las combinaciones de adaptador y sistema operativo.
l Si ha seleccionado el perfil de servidor de virtualización o el de almacenamiento + virtualización, y desinstala
la función Hyper-V, debe seleccionar un perfil nuevo.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Profile" -DisplayValue
"Standard Server"
Opciones de energía
La ficha de administración de energía de Intel PROSet incluye varios pametros de configuración que controlan el
consumo de energía del adaptador. Por ejemplo, puede configurarse el adaptador para que reduzca su consumo de
energía si el cable está desconectado.
Este ajuste se encuentra en la pestaña Power Management de la hoja de propiedades de Device Manager (Administrador
de dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Wake on Link Settings" -
DisplayValue "Enabled"
Reducción de la energía si el cable está desconectado y reducción de la velocidad del
enlace en el modo de espera
Permite que el adaptador reduzca el consumo de energía cuando se desconecta el cable de LAN del mismo y no hay un
enlace. Cuando el adaptador recupera un enlace válido, el consumo de energía del adaptador vuelve al estado normal
(uso de energía completo).
La opción Configuración predeterminada de hardware está disponible en algunos adaptadores. Si se selecciona esta
opción, la función estará deshabilitada o habilitada, según lo determine el hardware del sistema.
Valores por defecto El valor predeterminado varía con el sistema operativo y el adaptador.
Rango El rango varía con el sistema operativo y el adaptador.
Ethernet con uso eficiente de energía
La función Energy Efficient Ethernet (Ethernet con uso eficiente de energía, EEE) permite a un dispositivo compatible pasar
al estado inactivo de bajo consumo entre las cargas de tráfico de red. Ambos extremos del enlace deben tener EEE
habilitado para poder ahorrar energía. Ambos extremos del enlace recobrarán el uso energético completo cuando
necesiten transmitir datos. Esta transición puede introducir una pequeña cantidad de latencia de red.
NOTAS:
l Ambos extremos del enlace EEE deben negociar automáticamente su
velocidad.
l EEE no es compatible con todos los adaptadores.
Características del dispositivo
36
Opciones de Wake on LAN
La capacidad de reactivar sistemas de forma remota es uno de los adelantos más importantes en la gestión de sistemas.
Esta función ha evolucionado a través de los últimos años a partir de una capacidad de encendido remoto sencilla hasta
convertirse en un complejo sistema que tiene que ver con una gran variedad de estados de energía de los dispositivos y
sistemas operativos.
Microsoft Windows Server admite ACPI. Windows no es compatible con la reactivación a partir del estado apagado (S5),
solo desde el modo de espera (S3) o hibernación (S4). Cuando se apaga el sistema, estos estados apagan los dispositivos
ACPI, incluyendo los adaptadores Intel. Esto desactiva la capacidad de reactivación remota del adaptador. Sin embargo, en
algunos equipos compatibles con ACPI, el BIOS puede tener una configuración que le permite hacer caso omiso del
sistema operativo y reactivarlos desde un estado S5 de todas maneras. Si la configuración del BIOS no es compatible con
la reactivación desde un estado S5, solo podrá reactivarlos desde el estado de espera si utiliza estos sistemas operativos
en equipos ACPI.
La ficha Intel PROSet Power Management (Administración de energía de Intel PROSet) incluye Wake on Magic Packet
(Reactivar en Magic Packet) y Wake on directed packet settings (Reactivar en configuración de paquete dirigido). Estas
funciones controlan el tipo de paquetes que reactivan el sistema a partir del modo de espera.
En algunos adaptadores, la ficha Administración de energía de Intel PROSet incluye una opción denominada Wake on
Magic Packet from power off state (Reactivar en Magic packet desde el estado apagado). Habilite esta opción para
permitir la reactivación mediante un Magic Packet* desde la función de apagado en el modo de administración de energía
APM.
NOTAS:
l Para usar la función "Wake on Directed Packet" (Reactivar en paquete dirigido), primero debe habilitar WoL
en la EEPROM con BootUtil.
l Si la opción Reducir velocidad en el modo de espera está activada, las opciones Wake on Magic Packet
(Reactivar en Magic Packet) o Wake on directed packet (Reactivar en paquete dirigido) también deben estar
activadas. Si estas opciones están desactivadas, se interrumpe la alimentación del adaptador en el modo de
espera.
l Wake on Magic Packet from power off state (Reactivar en Magic packet desde el estado apagado) no tiene
ningún efecto en esta opción.
Dispositivos compatibles con WoL
Todos los dispositivos son compatibles con la función Activar en LAN en todos los puertos, con las siguientes excepciones:
Dispositivo Puerto(s) de adaptador compatibles con WoL
Adaptador Intel® Gigabit 2P I350-t
Adaptador Intel® Gigabit 4P I350-t
Solo puerto 1
Adaptador de red convergente
Ethernet Intel® X710-4
Adaptador de red convergente
Ethernet Intel® X710-2
Adaptador de red convergente
Ethernet Intel® X710
Solo puerto 1
Adaptador de red Ethernet Intel®
25G 2P E810-XXV
Ethernet Intel® 25G 2P XXV710
Mezz
Adaptador de red Ethernet Intel®
25G 2P XXV710
No admitido
Características del dispositivo
37
Dispositivo Puerto(s) de adaptador compatibles con WoL
Adaptador de red convergente
Ethernet Intel® X710-T
Adaptador de red convergente
Ethernet Intel® XL710-Q2
No admitido
Adaptador de red Ethernet Intel®
10G 2P X710-T2L-t
Adaptador de red Ethernet Intel®
10G 4P X710-T4L-t
No admitido
Adaptador de red Ethernet Intel®
10G 2P X520
Ethernet Intel® X520 10GbE KX4-
KR Mezz de doble puerto
No admitido
Adaptador de red Ethernet Intel®
10G 2P X540-t
No admitido
Adaptador de red Ethernet Intel®
10G 2P X550-t
No admitido
Ethernet Intel® 25G 2P XXV710
Mezz
Este dispositivo solo se puede activar si está apagado (S5). No se puede activar
desde el modo de suspensión/hibernación (S3/S4).
Configuración de Wake on Link
Activa el sistema si la conexión de red establece un enlace mientras el sistema está en modo de espera. Puede activar o
deshabilitar la función, o permitir que el sistema operativo utilice el valor predeterminado.
NOTAS:
l Si un adaptador Intel basado en cobre anuncia solo una velocidad de un gigabit, esta función no funciona
debido a que el adaptador no puede identificar un enlace de un gigabit en un estado D3.
l El cable de red debe estar desconectado al entrar a S3/S4 a fin de reanimar el sistema con el suceso de
enlace.
Valores por defecto Deshabilitado
Rango Deshabilitado
Controlado por el SO
Forzado
Remote Wake-Up (Reactivacn remota)
Con Remote Wake-Up (reactivación remota) puede activar su servidor desde un estado de baja potencia o desconexión. Si
la opción Wake on LAN está activada, cuando su sistema está desconectado, la interfaz de red cambia la potencia al modo
de espera e intenta detectar un paquete especialmente diseñado. Si lo recibe, activa su sistema.
ACPI (Advanced Configuration and Power Interface, Interfaz avanzada de configuración
y energía)
ACPI es compatible con una variedad de estados de energía. Cada estado representa un nivel diferente de energía, desde
el encendido completo hasta el apagado completo, con niveles parciales de energía en cada uno de los estados
intermedios.
Características del dispositivo
38
Estados de enera ACPI
Estado de
energía
Descripción
S0 Encendido y en completo funcionamiento
S1 El sistema se encuentra en un modo de energía bajo (modo de reposo). El reloj de la CPU está apagado
pero la RAM está encendida y se está actualizando.
S2 Similar a S1 pero no llega energía a la CPU.
S3 Suspensión en RAM (modo de espera). La mayoría de los componentes están apagados. La RAM se
mantiene en funcionamiento.
S4 Suspensión en disco (modo de hibernación). El contenido de la memoria se conserva en la unidad de disco
y luego se vuelve a cargar en la RAM cuando se reactiva el sistema.
S5 Apagado
Cómo realizar la activación tras el apagado
Para activar su sistema desde un estado de desconexión, debe activarlo desde la configuración del sistema.
1. Vaya a System Setup (Configuración del sistema).
2. Elija un puerto y acceda a Configuration (Configuración).
3. Habilite la función Wake on LAN.
Características del dispositivo
39
Patrones de dirección de Wake-Up
Se puede iniciar la reactivación remota con una variedad de tipos de paquetes que puede seleccionar el usuario, y no se
limita al formato de Magic Packet. Para obtener más información sobre los tipos de paquetes compatibles, consulte la
sección de configuración del sistema operativo.
La capacidad de reactivación de los adaptadores de Intel se basa en los patrones transmitidos por el SO. Se puede
establecer el controlador en las configuraciones siguientes utilizando Intel® PROSet. Para Linux*, WoL se suministra
mediante la utilidad ethtool*. Para obtener s información acerca de ethtool, consulte el siguiente sitio web:
http://sourceforge.net/projects/gkernel.
l Wake on Directed Packet: acepta solamente los patrones que contienen la dirección Ethernet del adaptador en el
encabezado de Ethernet o que contienen la dirección IP, asignada al adaptador, en el encabezado IP.
l Wake on Magic Packet: acepta solamente los patrones que contienen 16 repeticiones consecutivas de la dirección
MAC del adaptador.
l Wake on Directed Packet (Activar con paquete dirigido) y Wake on Magic Packet (Activar con Magic Packet):
aceptan los patrones de los paquetes dirigidos y los Magic Packets.
Características del dispositivo
40
Si selecciona "Wake on Directed Packet", se permiti tambn que el adaptador acepte patrones de Address Resolution
Protocol (ARP) solicitando la dirección IP asignada al adaptador. Si se asignan las direcciones IP a un adaptador, el
sistema operativo puede solicitar la reactivación en patrones ARP solicitando cualquiera de las direcciones asignadas. Sin
embargo, el adaptador solamente se reactivará en respuesta a paquetes ARP que solicitan la primera dirección IP de la
lista, usualmente la primera dirección asignada al adaptador.
Problemas con la instalación física
Ranura
Algunas placas base solo son compatibles con la reactivación remota (o la reactivación remota a partir de un estado S5) en
una ranura particular. Consulte la documentación que acompa al sistema si desea más detalles sobre la compatibilidad
con la reactivación remota.
Alimentación
Algunos adaptadores Intel PRO son de 3,3 voltios y otros, de 12 voltios. Están diseñados para ambos tipos de ranuras.
La alimentación suspendida de 3,3 voltios debe tener la capacidad de suministrar al menos 0,2 amperios a cada adaptador
Intel PRO instalado. Cuando se desactiva la función de reactivación en el adaptador mediante la utilidad BootUtil, se
reduce el consumo de energía hasta unos 50 miliamperios (0,05 amperios) por cada adaptador.
Configuración del sistema operativo
Sistemas operativos Microsoft Windows
Windows Server admite ACPI. Estos sistemas operativos no son compatibles con la reactivación a partir de un estado
apagado (S5), solamente desde el modo de espera. Cuando se apaga el sistema, se apagan los dispositivos ACPI, lo cual
incluye los adaptadores Ethernet Intel. Esto desactiva la capacidad de la reactivación remota de los adaptadores. Sin
embargo, en algunos equipos compatibles con ACPI, la BIOS puede tener una configuración que le permite hacer caso
omiso del SO y reactivarlos desde un estado S5 de todas maneras. Si la configuración del BIOS no es compatible con la
reactivación desde un estado S5, solo pod reactivarlos desde el estado de espera si utiliza estos sistemas operativos en
equipos ACPI.
En algunos adaptadores, la ficha Administración de energía de Intel PROSet incluye una opción denominada "Wake on
Magic Packet from power off state". Para permitir la reactivación explícita mediante un Magic Packet a partir del apagado en
el modo de administración de energía APM, seleccione esta casilla para habilitar esta opción. Para obtener s
información, consulte Intel PROSet.
En las versiones de Windows compatibles con ACPI, las configuraciones avanzadas de Intel PROSet también incluyen una
configuración denominada Wake on Settings (Configuración de la reactivación). Esto controla el tipo de paquetes que
reactivan el sistema a partir del modo de espera. Para obtener más información, consulte Intel PROSet.
Si no tiene Intel PROSet instalado, tendrá que realizar lo siguiente:
1. Abra Device Manager (Administrador de dispositivos) o Intel® PROSet Adapter Configuration Utility, vaya a la pestaña
Power Management (Administración de energía) y seleccione Allow this device to bring the computer out of standby
(Permitir que este dispositivo reactive el equipo).
2. En la ficha Advance (Opciones avanzadas), establezca la opción "Wake on Magic packet" (Activar con Magic Packet) en
Habilitado.
Para reactivar desde S5 sin Intel PROSet, en la pestaña Opciones avanzadas, configure "Habilitar PME" en Habilitado.
Otros sistemas operativos
Remote Wake-Up (Reactivación remota) también es compatible con Linux.
Características del dispositivo
41
Etiquetado de prioridad y VLAN
Habilita al adaptador a descargar la inserción y eliminación de etiquetas de prioridad y VLAN para operaciones de
transmisión y recepción.
Valores por defecto Prioridad y VLAN habilitadas
Rango l Prioridad y VLAN deshabilitadas
l Prioridad habilitada
l VLAN habilitada
l Prioridad y VLAN habilitadas
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para establecer esta opción en Windows Powershell, primero desactive DCB y, a continuación, establezca la prioridad y el
etiquetado VLAN. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "DCB" -DisplayValue "Desactivado"
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Prioridad de paquetes y VLAN" -DisplayValue
"VLAN activada"
Marca de tiempo del hardware del PTP
Permite que las aplicaciones que usan PTPv2 (Precision Time Protocol) utilicen las marcas de tiempo generadas por el
hardware para sincronizar los relojes en toda la red. Si este ajuste está habilitado, toma precedencia sobre el ajuste de
Software Timestamp (Marca de tiempo del software).
Valores por defecto Deshabilitado
Rango l Habilitado
l Deshabilitado
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "PTP Hardware Timestamp" -
DisplayValue "Enabled"
Calidad de servicio
Calidad de servicio (QoS) permite que el adaptador ene y reciba tramas etiquetadas como IEE 802.3ac. Las tramas
etiquetadas 802.3ac incluyen tramas etiquetadas con prioridad 802.1p y tramas etiquetadas como VLAN 802.1Q. Para
poder implementar QoS, el adaptador debe estar conectado a un conmutador que sea compatible con QoS y que esté
configurado para ello. Las tramas con etiquetas de prioridad permiten que los programas que utilizan eventos en tiempo
real hagan un uso s eficaz del ancho de banda de la red. Los paquetes con prioridad alta se procesan antes que los
paquetes con prioridades inferiores.
Para poder implementar QoS, el adaptador debe estar conectado a un conmutador que sea compatible con 802.1Q QoS y
que esté configurado para ello.
Se pueden activar o desactivar las etiquetas QoS en la ficha Opciones avanzadas de Intel PROSet para el Administrador
de dispositivos de Windows.
Características del dispositivo
42
Para establecer esta opción en Windows Powershell, primero desactive DCB y, a continuación, configure QoS con los
valores de Prioridad y etiquetado VLAN como DisplayName en el cmdlet. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "DCB" -DisplayValue "Desactivado"
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Prioridad de paquetes y VLAN" -DisplayValue
"VLAN activada"
Cuando QoS esté activado, puede especificar los niveles de prioridad según el etiquetado de tramas IEEE 802.1p/802.1Q.
Acceso remoto directo a memoria (RDMA)
El Acceso remoto directo a memoria, o RDMA por sus siglas en inglés, permite que un dispositivo de red transfiera datos
directamente a y desde la memoria de aplicaciones en otro sistema, aumentando el rendimiento y disminuyendo la latencia
en ciertos entornos de red.
l Los dispositivos con controladoras de Ethernet Intel® serie 800 son compatibles tanto con iWARP como con
RoCEv2.
La diferencia principal es que iWARP realiza RDMA a tras de TCP, mientras que RoCEv2 utiliza UDP.
Para evitar la degradación de rendimiento de los paquetes descartados, habilite el control de flujo de nivel de enlace o el
control de flujo de prioridad en todas las interfaces y conmutadores de la red.
NOTAS:
l En sistemas que ejecutan el sistema operativo Microsoft Windows Server, la habilitación de *QoS/control de
flujo de prioridad deshabilitará el control de flujo a nivel de enlace.
l Los dispositivos basados en la controladora de Ethernet Intel® serie 800 no admiten RDMA cuando
funcionan en modo multipuerto con más de 4 puertos.
l En los sistemas Linux, no se admite RDMA con la unión. Si RDMA está habilitado, la unión no será funcional.
RDMA en Linux
Estas sencillas instrucciones de instalación de RDMA en Linux se aplican a los siguientes dispositivos:
l Controladora de Ethernet Intel® serie 800
Para obtener información detallada de instalación y configuración, consulte el archivo LÉAME del controlador RDMA de
Linux en el archivo .tar del controlador para los dispositivos Ethernet Intel que admiten RDMA.
Este ejemplo es específico de Red Hat Enterprise Linux. Las especificaciones de su sistema operativo pueden ser
diferentes.
1. Descomprima el archivo .tar del controlador de RDMA. Por ejemplo:
# tar zxf irdma-<x.x.x>.tar.gz
2. Instale el controlador de PF de RDMA. Por ejemplo:
# cd irdma-<x.x.x>
# ./build.sh
# modprobe irdma
NOTA: de forma predeterminada, el controlador irdma se carga en modo iWARP. Utiliza la interfaz de devlink
para habilitar RoCEv2 por puerto. Para cargar todos los puertos irdma en modo RoCEv2, use lo siguiente:
# modprobe irdma roce_ena=1
3. Desinstale cualquier versión anterior instalada de rdma-core.
# yum erase rdma-core
4. Descargue el archivo .tar de la biblioteca rdma-core de GitHub. Por ejemplo:
# wget https://github.com/linux-rdma/rdma-core/releases/download/v27.0/rdma-core-
27.0.tar.gz
NOTA: descargue la versión de rdma-core que coincida con la versión del archivo de parche libirdma
incluido con el controlador. Por ejemplo, libirdma-27.0.patch requiere rdma-core-27.0.tar.gz.
Características del dispositivo
43
5. Descomprima el archivo .tar de rdma-core, aplique el parche y cambie el grupo para el archivo de especificaciones.
Por ejemplo:
# tar -xzvf rdma-core-<versión>.tar.gz
# cd rdma-core-<versión>
# patch -p2 <<ruta-a-la-compilación-del-componente>/libirdma-<versión>.patch
# cd ..
# chgrp -R root <ruta-a-rdma-core>/redhat
# tar -zcvf rdma-core-<versión>.tgz rdma-core-<versión>
6. Instale las bibliotecas de espacio del usuario rdma-core-intel. Por ejemplo:
# mkdir -p ~/rpmbuild/SOURCES
# mkdir -p ~/rpmbuild/SPECS
# cp rdma-core-<versión>.tgz ~/rpmbuild/SOURCES/
# cd ~/rpmbuild/SOURCES
# tar -xzvf rdma-core-<versión>.tgz
# cp ~/rpmbuild/SOURCES/rdma-core-<versión>/redhat/rdma-core.spec ~/rpmbuild/SPECS/
# cd ~/rpmbuild/SPECS/
# rpmbuild -ba rdma-core.spec
# cd ~/rpmbuild/RPMS/x86_64
# yum install *<versión>*.rpm
7. Habilite el control de flujo de su adaptador. Puede habilitar el control de flujo de nivel de enlace o el control de flujo
de prioridad; le recomendamos que utilice el control de flujo de prioridad. Consulte el archivo LÉAME del
controlador RDMA de Linux para obtener s información sobre el control de flujo.
8. Habilite el control de flujo en el conmutador con el que está conectado su sistema. Consulte la documentación del
conmutador para s detalles.
RDMA para aplicaciones de modo de usuario de Microsoft Windows Network
Direct (ND)
Network Direct (ND) permite que las aplicaciones de modo de usuario utilicen características de RDMA.
NOTA: las aplicaciones de modo de usuario pueden tener requisitos previos, como Microsoft HPC Pack o Intel MPI
Library; consulte la documentación de su aplicación para obtener s detalles.
Instalación del modo de usuario RDMA
El proveedor de RDMA en modo de usuario de Ethernet Intel® es compatible con Microsoft Windows Server 2016 y
posteriores.
Siga los pasos indicados más abajo para instalar las características de modo de usuario de Network Direct.
1. Desde el soporte de instalación, ejecute Autorun.exe para iniciar el instalador y, a continuación, seleccione “Install
Drivers and Software(Instalar controladores y software) y acepte el acuerdo de licencia.
2. En la pantalla Setup Options (Opciones de configuración), seleccione “Intel® Ethernet User Mode RDMA Provider”
(Proveedor de RDMA en modo de usuario de Ethernet Intel®).
3. En la pantalla RDMA Configuration Options (Opciones de configuración de RDMA), seleccione “Enable RDMA
routing across IP Subnets” (Habilitar enrutamiento de RDMA a través de subredes IP), si lo desea. Tenga en cuenta
que esta opción se visualiza durante la instalación del controlador base, aunque no se haya seleccionado RDMA en
modo de usuario, ya que esta opción es aplicable también a la funcionalidad de Network Direct Kernel.
4. Si el firewall de Windows está instalado y activo, seleccione “Create an Intel® Ethernet RDMA Port Mapping Service
rule in Windows Firewall” (Crear una regla del servicio de asignación de puertos RDMA de Ethernet Intel® en el
firewall de Windows) y las redes a las que se aplica la regla.
NOTA: si el firewall de Windows está deshabilitado o utiliza un firewall de terceros, tend que añadir esta
regla manualmente.
5. Continúe con la instalación del controlador y del software.
Características del dispositivo
44
Network Direct Kernel (NDK) de RDMA
La funcionalidad Network Direct Kernel (NDK) de RDMA está incluida en los controladores de red base de Intel y no
requiere la instalación de características adicionales.
Enrutamiento de RDMA a tras de subredes IP
Si desea habilitar la característica RDMA de NDK a través de subredes, tend que seleccionar “Enable RDMA routing
across IP Subnets” (Habilitar enrutamiento de RDMA a través de subredes IP) en la pantalla RDMA Configuration Options
(Opciones de configuración de RDMA) durante la instalación del controlador base.
Activacn del control de flujo de prioridad (PFC) en un sistema operativo
Microsoft Windows Server
Para evitar la degradación de rendimiento de los paquetes descartados, habilite el control de flujo de prioridad (PFC) o el
control de flujo de nivel de enlace en todas las interfaces y conmutadores de la red.
NOTA: en sistemas que ejecutan el sistema operativo Microsoft Windows Server, la habilitación de *QoS/control de
flujo de prioridad deshabilitará el control de flujo a nivel de enlace.
Utilice los siguientes comandos de PowerShell para habilitar el PFC en un sistema operativo Microsoft Windows Server:
Install-WindowsFeature -Name Data-Center-Bridging -IncludeManagementTools
New-NetQoSPolicy "SMB" -NetDirectPortMatchCondition 445 -PriorityValue8021Action 3
Enable-NetQosFlowControl -Priority 3
Disable-NetQosFlowControl -Priority 0,1,2,4,5,6,7
New-NetQosTrafficClass -Name "SMB" -Priority 3 -BandwidthPercentage 60 -Algorithm ETS
Set-NetQosDcbxSetting -Willing $FALSE
Enable-NetAdapterQos -Name "Slot1 4 2 Port 1"
Verificación del funcionamiento de RDMA con Microsoft PowerShell
Puede comprobar que RDMA esté habilitado en las interfaces de red mediante el siguiente comando de Microsoft
PowerShell:
Get-NetAdapterRDMA
Use el siguiente comando de PowerShell para comprobar si las interfaces de red son compatibles con RDMA y si está
habilitado el multicanal:
Get-SmbClientNetworkInterface
Use el siguiente comando de PowerShell para comprobar si Network Direct está habilitado en el sistema operativo:
Get-NetOffloadGlobalSetting | Select NetworkDirect
Use netstat para asegurarse de que cada interfaz de red compatible con RDMA tiene un agente de escucha en el puerto
445 (los sistemas operativos cliente de Windows que admiten RDMA no pueden publicar agentes de escucha). Por
ejemplo:
netstat.exe -xan | ? {$_ -match "445"}
RDMA para entornos virtualizados
Para habilitar la funcionalidad de RDMA en adaptadores virtuales conectados a un VMSwitch, las propiedades avanzadas
de SRIOV (Virtualización de E/S de raíz única) y VMQ (Colas de máquina virtual) deben estar habilitadas en cada de
puerto. En determinadas circunstancias, estas configuraciones pueden estar deshabilitadas de manera predeterminada.
Estas opciones se pueden configurar manualmente en la pestaña avanzada del cuadro de diálogo de propiedades del
adaptador o con los siguientes comandos de Powershell:
Características del dispositivo
45
Set-NetAdapterAdvancedProperty -Name <nombre_nic> -RegistryKeyword *SRIOV -RegistryValue 1
Set-NetAdapterAdvancedProperty -Name <nombre_nic> -RegistryKeyword *VMQ -RegistryValue 1
Configuración de compatibilidad con invitado de RDMA (modo NDK 3)
El modo NDK 3 permite que los componentes de Windows en modo de kernel utilicen las características de RDMA dentro
de las particiones invitadas de Hyper-V. Para habilitar el modo NDK 3 en un dispositivo Ethernet Intel, haga lo siguiente:
1. Habilite SR-IOV en el BIOS o UEFI de su sistema.
2. Habilite el ajuste avanzado de SR-IOV en el dispositivo.
3. Habilite SR-IOV en el VMSwitch vinculado al dispositivo realizando lo siguiente para todas las funciones físicas en
el mismo dispositivo:
New-VMSwitch -Name <nombre_conmutador> -NetAdapterName <nombre_dispositivo>
-EnableIov $true
4. Configure elmero de funciones virtuales (VF) de RDMA en el dispositivo estableciendo el ajuste avanzado
“RdmaMaxVfsEnabled”. Todas las funciones sicas se deben establecer en el mismo valor. El valor es la cantidad
máxima de VF que pueden ser compatibles con RDMA a la vez para todo el dispositivo. Al habilitar más VF se
restringin los recursos RDMA de las funciones sicas (PF) y otras VF.
Set-NetAdapterAdvancedProperty -Name <nombre_dispositivo> -RegistryKeyword
RdmaMaxVfsEnabled -RegistryValue <valor: 0 - 32>
5. Deshabilite todos los adaptadores PF en el host y vuelva a habilitarlos. Esto es necesario cuando se cambia la
palabra clave de registro “RdmaMaxVfsEnabled” o cuando se crea o destruye un VMSwitch.
Get-NetAdapterRdma | Disable-NetAdapter
Get-NetAdapterRdma | Enable-NetAdapter
6. Cree adaptadores de red VM para VM que requieran compatibilidad con RDMA VF.
Add-VMNetworkAdapter -VMName <nombre_vm> -VMNetworkAdapterName <nombre_dispositivo> -
SwitchName <nombre_conmutador>
7. Si planea usar Microsoft Windows 10 Creators Update (RS2) o posterior en una partición invitada, establezca el
peso de RDMA en el adaptador de red de VM introduciendo el siguiente comando en el host:
Set-VMNetworkAdapterRdma -VMName <nombre_vm> -VMNetworkAdapterName <nombre_dispositivo> -
RdmaWeight 100
8. Establezca el peso de SR-IOV en el adaptador de red VM (nota: el peso de SR-IOV debe establecerse en 0 antes de
configurar RdmaWeight en 0):
Set-VMNetworkAdapter -VMName <nombre_vm> -VMNetworkAdapterName <nombre_dispositivo> -
IovWeight 100
9. Instale el adaptador de red VF con el instalador PROSET en la VM.
10. Habilite RDMA en el controlador de VF y el adaptador de red de Hyper-V utilizando PowerShell en la VM:
Set-NetAdapterAdvancedProperty -Name <nombre_dispositivo> -RegistryKeyword RdmaVfEnabled -
RegistryValue 1
Get-NetAdapterRdma | Enable-NetAdapterRdma
Características de RDMA para NDK como SMB directo (Bloque de mensajes
del servidor)
NDK permite que los componentes de Windows (como el almacenamiento SMB directo) utilicen características de RDMA.
Prueba de NDK: SMB directo de Microsoft Windows con DiskSPD
Esta sección describe la forma recomendada de probar RDMA para la funcionalidad y el rendimiento de Ethernet Intel en
los sistemas operativos Microsoft Windows.
Tenga en cuenta que, dado que SMB directo es una carga de trabajo de almacenamiento, el rendimiento de la prueba de
referencia puede estar limitado a la velocidad del dispositivo de almacenamiento en lugar de a la interfaz de red que se
está probando. Intel recomienda utilizar el almacenamiento más rápido posible para probar las prestaciones reales de los
dispositivos de red sometidos a prueba.
Características del dispositivo
46
Instrucciones de prueba:
1. Configure y conecte al menos dos servidores que ejecuten un sistema operativo Microsoft Windows Server
compatible, con al menos un dispositivo Ethernet Intel® compatible con RDMA por servidor.
2. En el sistema designado como servidor SMB, configure un recurso compartido SMB. Tenga en cuenta que el
rendimiento de la prueba de referencia puede estar limitado a la velocidad del dispositivo de almacenamiento en
lugar de a la interfaz de red que se está probando. La configuración de almacenamiento está fuera del ámbito de
este documento. Puede usar el siguiente comando de PowerShell:
New-SmbShare -Name <nombre_rec_compartido_SMB> -Path <ruta_archivo_rec_compartido_SMB> -
FullAccess <nombre_dominio>\Administrator,Everyone
Por ejemplo:
New-SmbShare -Name RAMDISKShare -Path R:\RAMDISK -FullAccess group\Administrator,Everyone
3. Descargue e instale la utilidad de Microsoft Diskspd desde aquí: https://docs.microsoft.com/es-
es/samples/browse/?redirectedfrom=TechNet-Gallery.
4. Mediante CMD o Powershell, cambie el directorio a la carpeta DiskSpd y ejecute las pruebas. (Consulte la
documentación de Diskspd para obtener más detalles sobre los pametros).
Por ejemplo, establezca el tamaño de bloque en 4K, ejecute la prueba durante 60 segundos, deshabilite todo el
almacenamiento en memoria caché de hardware y software, mida y muestre las estadísticas de latencia, aproveche
16 E/S superpuestas y 16 hilos por destino, 0 % de escrituras y 100 % de lecturas aleatorias y cree un archivo de
prueba de 10 GB en “\\<IP_prueba_servidor_SMB>\<nombre_rec_compartido_SMB>\test.dat”:
.\diskspd.exe -b4K -d60 -h -L -o16 -t16 -r -w0 -c10G \\<IP_prueba_servidor_SMB>\<nombre_
rec_compartido_SMB>\test.dat
5. Verifique que el tfico de RDMA se esté ejecutando utilizando contadores de perfmon como “Actividad RDMA” y
“Conexión de SMB directo”. Consulte la documentación de Microsoft para obtener más detalles.
Acceder a unidades remotas NVM Express* mediante RDMA
RDMA proporciona medios de alto rendimiento y baja latencia para acceder directamente a las unidades NVM Express*
(NVMe*) en un servidor remoto. Consulte la Guía de configuración de NVM Express* en TCP mediante Ethernet Intel® y la
Guía de configuración de NVM Express* en Fabrics mediante Ethernet Intel® RDMA para obtener información sobre cómo
establecer y configurar su servidor y sistemas de cliente. Ambas guías están disponibles en la Biblioteca técnica de Intel.
Búferes de recepción
Define la cantidad de Búferes de recepción, los cuales son segmentos de datos. Se asignan en la memoria del sistema
principal y se utilizan para almacenar los paquetes recibidos. Cada paquete recibido necesita al menos un Búfer de
recepción, y cadafer utiliza 2 KB de memoria.
Si observa una disminución importante del rendimiento del tfico recibido, quizá desee aumentar el número de Búferes de
recepción. Si el rendimiento de recepción no es un problema, utilice el valor predeterminado que sea apropiado para el
adaptador.
Valores por defecto 512, para todos los adaptadores.
Rango 128-4096, en intervalos de 64, para todos los adaptadores.
Valor recomendado Si se utiliza IPSec y/o varias funciones: 352
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Características del dispositivo
47
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Receive Buffers" -
DisplayValue "256"
RSS
Al habilitar Receive Side Scaling (RSS), todo el proceso de datos recibidos para una conexión TCP determinada se
comparte entre varios procesadores o núcleos de procesadores. Sin RSS, todo el proceso lo realiza un solo procesador, lo
que produce una utilización menos eficiente de la memoria caché del sistema.
LAN RSS
LAN RSS se aplica a una conexión TCP concreta.
NOTA: esta configuración no surte efecto si su sistema tiene una sola unidad de procesamiento.
Configuración de LAN RSS
Si su adaptador no es compatible con RSS, o si SNP o SP2 no está instalado, no aparecerá la configuración de RSS. Si
RSS es compatible en el entorno de su sistema, aparece lo siguiente:
l Nodo NUMA de puerto. Es el número de nodo NUMA de un dispositivo.
l Inicio de la CPU de RSS. Esta opción le permite establecer el procesador inicial preferido de RSS. Cambie esta
opción si el procesador actual está dedicado a otros procesos. El rango de esta opción es de 0 almero de CPU
lógicas menos uno.
l Númeroximo de CPU de RSS. Esta opción le permite establecer elmero ximo de CPU asignadas a un
adaptador y se utiliza principalmente en un entorno Hyper-V. Si reduce esta opción en un entorno Hyper-V, el
mero total de interrupciones se reduce, lo que disminuye la utilización de la CPU. El valor predeterminado es 8
para adaptadores Gigabit y 16 para adaptadores de 10 Gigabits o más.
l Nodo NUMA preferido. Esta opción le permite elegir el nodo NUMA (Acceso a memoria no uniforme) que se
utiliza para asignaciones de memoria realizadas por el adaptador de red. Además, el sistema intentará utilizar
primero las CPU del nodo NUMA preferido para los fines de RSS. En las plataformas NUMA, la latencia de acceso a
la memoria depende de la ubicación de ésta. La asignación de memoria del nodo más cercano ayuda a mejorar el
rendimiento. El Administrador de tareas de Windows muestra el ID del nodo NUMA para cada procesador.
NOTAS:
l Esta opción solo afecta a los sistemas NUMA. No tend ningún efecto en los sistemas que no sean
NUMA.
l Al elegir un valor mayor que elmero de nodos NUMA presentes en el sistema, se selecciona el
nodo NUMA s cercano al dispositivo.
l Colas de Receive Side Scaling. Esta configuración establece elmero de colas de RSS, lo que determina el
espacio para almacenar transacciones en elfer entre el adaptador de red y las CPU.
Valores por
defecto
2 colas para los adaptadores Intel® 10 Gigabit para servidor
Rango l Se usa 1 cola cuando se requiere un bajo nivel de utilización de la CPU.
l Se usan 2 colas cuando se requiere un buen rendimiento y un bajo nivel de utilización
de la CPU.
l Se utilizan 4 o más colas para las aplicaciones que requieren el máximo rendimiento y
mero de transacciones por segundo.
NOTAS:
l No todos los valores están disponibles en todos los adaptadores.
l Solo hay 8 o más colas disponibles cuando se instala PROSet para el
administrador de dispositivos de Windows o Intel® PROSet Adapter
Configuration Utility (Intel® PROSet ACU). Si PROSet no está instalado, solo se
dispone de 4 colas.
Características del dispositivo
48
l Si se utilizan 8 colas o más, debe reiniciarse el sistema.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Receive Side Scaling"
-DisplayValue "Enabled"
Configuración de la velocidad y dúplex
Visión general
La configuración de la velocidad de enlace y del dúplex permite elegir la manera en que el adaptador envía y recibe
paquetes de datos por la red.
En el modo predeterminado, un adaptador de red de Intel que utilice conexiones de cobre intentará realizar la negociación
automática con su interlocutor de enlace para determinar la mejor configuración. Si no se establece un enlace con el
interlocutor de enlace mediante la negociación automática, puede que sea necesario poner el adaptador y el interlocutor
del enlace en la misma configuración manualmente, a fin de establecer el enlace y pasar paquetes. Esto será necesario
únicamente cuando se intente establecer el enlace con un conmutador antiguo que no admite la negociación automática o
uno que ha sido forzado a una velocidad o modo dúplex específicos.
La negociación automática se inhabilita al seleccionar una velocidad discreta y modo plex en la hoja de propiedades del
adaptador. Las configuraciones disponibles cuando la negociación automática está deshabilitada dependen del
dispositivo. No todas las velocidades están disponibles en todos los dispositivos. Su interlocutor de enlace debe coincidir
con el valor establecido.
NOTAS:
l Solamente los administradores de red experimentados debean forzar manualmente la velocidad y el modo
plex.
l Cuando un adaptador se ejecuta en el modo NPar, la configuración de la velocidad se limita a la partición
raíz de cada puerto.
l Los adaptadores de fibra óptica solo funcionan en el modo dúplex completo a su propia velocidad. No puede
cambiarse la velocidad oplex de los adaptadores Intel que utilizan cables de fibra.
l Algunos dispositivos pueden indicar como opciones 10 Mbps y 100 Mbps con dúplex completo o medio. No
se recomienda usar esos ajustes.
l La ficha Link Speed (Velocidad de enlace) puede mostrar un icono informativo azul que muestra un mensaje
al pasar el ratón por encima del icono: "This device is not linked at its maximum capable speed" (Este
dispositivo no está enlazado a su máxima capacidad de velocidad).En ese caso, si el dispositivo está
establecido en negociación automática, puede ajustar esta velocidad del interlocutor de enlace del
dispositivo a la velocidad máxima del dispositivo. Si el dispositivo no está establecido en negociación
automática, puede ajustar la velocidad del dispositivo manualmente, pero debe asegurarse de que el
interlocutor de enlace se establezca a la misma velocidad.
Configuracn manual de los valores delplex y la velocidad
ADVERTENCIA: la configuración del conmutador siempre debe coincidir con la del adaptador. Puede verse
afectado el rendimiento del adaptador, o hasta podría dejar de funcionar, si lo configura de manera distinta al
conmutador.
La configuración depende del controlador del sistema operativo. Para configurar una velocidad de enlace y el modo dúplex
específicos, consulte la sección que corresponda al sistema operativo, a continuación.
Características del dispositivo
49
Windows
La configuración predeterminada tiene la negociación automática activada. Cambie esta configuración solamente para que
coincida con la velocidad de su interlocutor de enlace y el ajuste deplex si tiene problemas para conectarse.
1. En el Administrador de dispositivos de Windows o en Intel® PROSet Adapter Configuration Utility, haga doble clic en
el adaptador que desea configurar.
2. En la ficha Link Speed (Velocidad de enlace), seleccione la opción de velocidad y dúplex en el menú desplegable
Speed and Duplex (Velocidad y dúplex).
3. Haga clic en Aceptar.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Speed & Duplex" -
DisplayValue "Auto Negotiation"
Linux
Consulte Controlador de Linux* para la familia de adaptadores Intel® Gigabit para obtener información sobre cómo
configurar la velocidad y el modo plex en los sistemas Linux.
Marca de tiempo del software
Permite que las aplicaciones que usan PTPv2 (Precision Time Protocol) utilicen las marcas de tiempo generadas por el
software para sincronizar los relojes en toda la red. Si la opción PTP Hardware Timestamp (Marca de tiempo del hardware
del PTP) está habilitada, tiene preferencia con respecto a esta opción.
Valores por defecto Deshabilitado
Rango l Deshabilitado
l RxAll
l TxAll
l RxAll y TxAll
l TaggedTx
l RxAll y TaggedTx
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "PTP Hardware Timestamp" -
DisplayValue "Enabled"
SR-IOV (Virtualización de E/S de raíz única).
SR-IOV permite que un solo puerto de red parezca tener varias funciones virtuales en un entorno virtualizado. Si tiene una
NIC preparada para SR-IOV, cada puerto de la NIC podrá asignar una función virtual a varias particiones invitadas. Las
funciones virtuales omiten el Gestor de la máquina virtual (VMM), con lo que los datos del paquete pueden pasar
directamente a la memoria de una partición invitada, de forma que se obtiene mayor productividad con un uso menor de la
CPU. SR-IOV también permite mover los datos del paquete directamente a la memoria de una partición invitada. Consulte
los requisitos del sistema en la documentación de su sistema operativo.
Para los dispositivos que son compatibles, SR-IOV se habilita en la partición del host. Es posible que algunos dispositivos
deban tener SR-IOV habilitada en un entorno de preinicio.
NOTAS:
l Configuracn de SR-IOV para mejorar la seguridad de red: En un entorno virtualizado, en aquellos
Características del dispositivo
50
adaptadores de servidor Intel® que son compatibles con SR-IOV, es posible que la función virtual (VF) esté
sujeta a comportamientos malintencionados. No se esperan las tramas de dos capas generadas por
software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de flujo basado en la
prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual, lo que
disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento de flujos de tfico no
deseados, configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN desde la interfaz
administrativa de la PF. Esta configuración permite descartar tramas inesperadas y potencialmente
malintencionadas.
l SR-IOV debe habilitarse en la BIOS.
l Debe habilitar VMQ para que SR-IOV funcione.
l Para obtener el mejor rendimiento, en el host, utilice "Set-VMNetworkAdapter -IovQueuePairsRequested 4"
en la VF para permitir que la red virtual utilice 4 colas (valor ximo admitido) y asigne 4 o s CPU virtuales
a la máquina virtual conectada. En la máquina virtual, establezca el valor 4 como "Número máximo de colas
de recepción" en las propiedades del adaptador de la VF.
l No se recomienda vincular más de dos funciones virtuales (VF) a una máquina virtual (VM). Vincular más VF
a una VM puede causar inestabilidad en el sistema.
l VMware ESXi no es compatible con SR-IOV en puertos 1GbE.
l Algunos adaptadores multipuerto contienen más de un controlador. En estos adaptadores, activar SR-IOV en
un puerto no activa SR-IOV en todos los puertos. Solo los puertos enlazados al mismo controlador estarán
activados.
l Si se desactiva SR-IOV en BIOS o el Administrador de inicio, se necesario reiniciar el sistema para activar
SR-IOV desde Intel PROSet.
l Cuando un adaptador se ejecuta en modo NPar, SR-IOV se limita a la partición raíz de cada puerto.
l Cuando un adaptador se ejecuta en modo NPar, la configuración de virtualización (SR-IOV) se aplica a todos
los puertos del adaptador. Los cambios realizados en la configuración de virtualización en un puerto se
aplican a todos los puertos del adaptador.
l Debido a las limitaciones del chipset, no todos los sistemas o ranuras son compatibles con SR-IOV. A
continuación se incluye un gráfico que resume la compatibilidad de SR-IOV en las plataformas de servidor de
Dell EMC.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "SR-IOV" -DisplayValue
"Enabled"
Activacn de SR-IOV en el servidor
Debe activar SR-IOV en el BIOS o el HII del sistema.
BIOS
1. Acceda al BIOS del sistema en la POST.
2. Active Global SR-IOV.
3. Habilite Tecnología de virtualización.
4. Guarde los cambios y salga.
HII
1. Durante la POST, pulse F2 para acceder a la configuración del dispositivo.
2. Vaya a NIC -> Configuración de nivel de dispositivo.
3. Establezca el modo de virtualización en "SR-IOV" o "NPAR + SR-IOV".
4. Guarde los cambios y salga.
Características del dispositivo
51
Compatibilidad de SR-IOV en adaptadores de red
NDC, LOM o adaptador 40 Gbe 25 Gbe 10 Gbe 1 Gbe
Adaptador de red convergente Ethernet Intel® XL710-Q2
Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Adaptador de red Ethernet Intel® 25G 2P E810-XXV
Ethernet Intel® 25G 2P E810-XXV OCP
Ethernet Intel® 25G 2P XXV710 Mezz
Adaptador de red Ethernet Intel® 25G 2P XXV710
Ethernet Intel® 10G 4P X710-k bNDC
Ethernet Intel® 10G 2P X710-k bNDC
Ethernet Intel® 10G X710-k bNDC
Adaptador de red Ethernet Intel® 10G 2P X710-T2L-t
Adaptador de red Ethernet Intel® 10G 4P X710-T4L-t
Adaptador de red Ethernet Intel® X710-TL
Adaptador de red convergente Ethernet Intel® X710
Adaptador de red convergente Ethernet Intel® X710-T
Ethernet Intel® 10G 4P X710-T4L-t OCP
Ethernet Intel® 10G 2P X710-T2L-t OCP
Ethernet Intel® 10G 2P X710 OCP
Ethernet Intel® 10G 4P X710 OCP
Adaptador de Ethernet Intel® X710-DA2 para servidores para OCP
Ethernet Intel® 10G 4P X710/l350 rNDC No
Ethernet Intel® 10G 4P X710 SFP+ rNDC
Ethernet Intel® 10G X710 rNDC No
Ethernet Intel® 10G 4P X550 rNDC
Ethernet Intel® 10G 4P X550/I350 rNDC No
Adaptador de red Ethernet Intel® 10G 2P X550-t
Adaptador de red Ethernet Intel® 10G 2P X540-t
Ethernet Intel® 10G 4P X540/I350 rNDC No
Ethernet Intel® 10G 4P X520/I350 rNDC No
Ethernet Intel® 10G 2P X520-k bNDC
Ethernet Intel® X520 10GbE KX4-KR Mezz de doble puerto
Ethernet Intel® 1G 4P I350-t OCP
Características del dispositivo
52
NDC, LOM o adaptador 40 Gbe 25 Gbe 10 Gbe 1 Gbe
Intel® Gigabit 4P I350-t rNDC
Intel® Gigabit 4P I350 bNDC
Intel® Gigabit 4P I350-t Mezz
Adaptador Intel® Gigabit 2P I350-t
Adaptador Intel® Gigabit 4P I350-t
LOM PowerEdge C4130 No
LOM PowerEdge C6320
LOM PowerEdge C6420 No
LOM PowerEdge T620 No
LOM Dell PowerEdge T630 No
LOM Dell PowerEdge FC430 No
LOM Dell PowerEdge R530XD No
Plataforma de Dell
EMC
OCP
Mezz
Bastidor
NDC
Ranura PCI Express
1 2 3 4 5 6 7 8 9 10 11 12 13
C4130
C4140 no no
C6320
C6420
R230 no no
R240 no no
R320 no
R330 no no
R340 no no
R420 1 x CPU no
2 x CPU
R430
R440
R520 1 x CPU no
2 x CPU
R530 no no
R540 no
Características del dispositivo
53
Plataforma de Dell
EMC
OCP
Mezz
Bastidor
NDC
Ranura PCI Express
1 2 3 4 5 6 7 8 9 10 11 12 13
R530XD no
R620
R630
R640
R720XD
R720
R730
R730XD
R740
R740XD2 no
R820
R830
R840
R920
R930
R940
T130 no no no no
T140 no no no no
T320 no no
T330 no no no no
T340 no no no no
T420 no no
T430 no no
T440 no
T620 no
T630 no
T640
Las siguientes plataformas de Dell EMC son compatibles con SR-IOV en todas las ranuras.
l C6520
l C6525
l R650
l R650xa
l R6515
l R6525
l R750
Características del dispositivo
54
l R750xa
l R7525
l R7515
Plataforma de Dell EMC Hoja NDC Ranura Mezzanine
B C
FC430
FC630
FC830
M420
M520 no
M620
M630
M630 para VRTX
M640
M640 para VRTX
M820
M830
M830 para VRTX
MX740c
MX840c
Las plataformas o ranuras compatibles se indican con "sí". Las plataformas no compatibles se indican con un "no". Cuando
no es aplicable, se indica con celdas en blanco.
Descarga de la suma de comprobación de TCP (IPv4 e IPv6)
Permite al adaptador verificar la suma de comprobación de TCP de los paquetes entrantes y calcular la suma de
comprobación de TCP de los paquetes salientes. Esta función aumenta el rendimiento de transmisión y recepción, y reduce
el uso de la CPU.
Cuando la Descarga está desactivada, el sistema operativo verificará la suma de comprobación de TCP.
Cuando la Descarga está activada, el adaptador completa la verificación en lugar del sistema operativo.
Valores por defecto Habilitado para recepción y transmisión
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y transmisión
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Características del dispositivo
55
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "TCP Checksum Offload (IPv4)"
-DisplayValue "Tx Enabled"
Opciones de descarga de TCP/IP
Supervisión de la temperatura
Los adaptadores y controladores basados en la controladora de Ethernet Intel® I350 (y superiores) pueden mostrar datos
de temperatura y reducir automáticamente la velocidad del enlace si la temperatura de la controladora aumenta
demasiado.
NOTA: esta función viene habilitada y configurada por el fabricante del equipo. No está disponible en todos los
adaptadores y controladores de red. No existen opciones de configuración para el usuario.
Supervisión e informe
La información sobre temperatura se muestra en la pestaña Link (Enlace) en el Intel® PROSet para el administrador de
dispositivos de Windows* o Intel® PROSet Adapter Configuration Utility. Hay tres condiciones posibles:
l Temperatura: Normal
Indica que el funcionamiento es normal.
l Temperatura: Sobrecalentado, enlace reducido
Indica que el dispositivo ha reducido la velocidad del enlace para reducir el consumo de energía y la temperatura.
l Temperatura: Sobrecalentado, adaptador detenido
Indica que el dispositivo está demasiado caliente y ha dejado de transmitir tfico para no resultar dañado.
Si se produce alguno de estos casos de sobrecalentamiento, el controlador del dispositivo escribe un mensaje en el
registro de eventos del sistema.
Búferes de transmisión
Define el número de Búferes de transmisión, los cuales son segmentos de datos que hacen que el adaptador pueda hacer
un seguimiento de los paquetes de transmisión en la memoria del sistema. Cada paquete de transmisión necesita uno o
varios Búferes de transmisión, dependiendo del tamaño del mismo.
Si observa un problema posible con el rendimiento de transmisión, puede optar por aumentar elmero de Búferes de
transmisión. Aumentar elmero de Búferes de transmisión puede mejorar el rendimiento de transmisión, pero estos
consumen memoria del sistema. Si el funcionamiento de la transmisión no es un problema, utilice el valor predeterminado.
El valor predeterminado varía según el tipo de adaptador.
Si necesita ayuda para identificar su adaptador, consulte el tema Especificaciones del adaptador.
Valores por defecto 512, según los requisitos del adaptador
Rango 128-16384, en intervalos de 64, para los adaptadores 10 Gigabit para servidor.
128-4096, en intervalos de 64, para todos los demás adaptadores.
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Transmit Buffers" -
DisplayValue "128"
Características del dispositivo
56
Descarga de la suma de comprobación de UDP (IPv4 e IPv6)
Permite al adaptador verificar la suma de comprobación de UDP de los paquetes entrantes y calcular la suma de
comprobación de UDP de los paquetes salientes. Esta función aumenta el rendimiento de transmisión y recepción, y
reduce el uso de la CPU.
Cuando la Descarga está desactivada, el sistema operativo verificará la suma de comprobación de UDP.
Cuando la Descarga está activada, el adaptador completa la verificación en lugar del sistema operativo.
Valores por defecto Habilitado para recepción y transmisión
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y
transmisión
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "UDP Checksum Offload (IPv4)"
-DisplayValue "Tx Enabled"
Descarga de la segmentación de UDP (IPv4 e IPv6)
Permite al adaptador segmentar paquetes UDP con cargas útiles de hasta 64 K en tramas de Ethernet lidas. Debido a
que el hardware del adaptador puede efectuar la segmentación de los datos mucho más rápidamente que el software del
sistema operativo, esta función puede aumentar el rendimiento de transmisión. Ades, el adaptador puede utilizar menos
recursos de la CPU.
Con la descarga desactivada, el sistema operativo segmenta los paquetes UDP en tramas Ethernet válidas.
Con la descarga activada, el adaptador segmenta los paquetes UDP para el sistema operativo.
NOTA: La descarga de la segmentación de UDP requiere:
l Microsoft* Windows Server* 2019, versión 1903 o
posterior
l Linux* kernel 4.18 o posterior
Valores por defecto Habilitado
Rango l Deshabilitado
l Habilitado
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set_IntelNetAdapterSetting. Por ejemplo:
Set_IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "UDP Segmentation Offload
(IPv4)" -DisplayValue "Enabled"
Esperar al enlace
Determina si el controlador espera a que la negociación automática sea satisfactoria antes de informar el estado del
enlace. Si se desactiva esta función, el controlador no espera a la negociación automática. Si se activa esta función, el
controlador espera a la negociación automática.
Características del dispositivo
57
Si esta función está activada y la velocidad no se define como negociación automática, el controlador esperará durante un
lapso breve a que se establezca un enlace antes de informar del estado del mismo.
Si la función está configurada como Deteccn automática, se establece autoticamente como Activado o
Desactivado en función de la velocidad y el tipo de adaptador cuando se instaló el controlador. La configuración es:
l Desactivada para los adaptadores Intel Gigabit de cobre con una velocidad "Automática".
l Activada para los adaptadores Intel Gigabit de cobre con una velocidad forzada y dúplex.
l Activada para los adaptadores Intel Gigabit de fibra con una velocidad "Automática".
Valores por defecto Detección automática
Rango l Activado
l Desactivado
l Detección
automática
Este ajuste se encuentra en la pestaña Advanced de la hoja de propiedades de Device Manager (Administrador de
dispositivos) del dispositivo o de Intel® PROSet Adapter Configuration Utility.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Wait for Link" -DisplayValue
"Off"
58
Instalación y configuración del software y los
controladores de Microsoft* Windows*
Instalación de los controladores y el software de Windows
NOTA: para instalar o desinstalar satisfactoriamente los controladores o el software, debe contar con privilegios
administrativos en el equipo en el que se va a llevar a cabo el proceso.
Instalación de los controladores
NOTAS:
l Esta instalación actualiza los controladores de todos los adaptadores de red Intel® compatibles de su
sistema.
l La función Revertir al controlador anterior de Windows Server (disponible en la ficha Controlador del cuadro
de diálogo de propiedades del adaptador) no funciona correctamente si está presente en el sistema un
equipo de adaptadores o Intel PROSet. Antes de utilizar la función Revertir al controlador anterior, elimine
cualquier equipo. A continuación, elimine Intel PROSet mediante la opción Programas y características del
Panel de control de Windows. Consulte Instalación de Intel PROSet para obtener más información sobre Intel
PROSet.
l No se puede utilizar Microsoft Windows Update para actualizar o cambiar a una versión inferior los
controladores de la red Ethernet. Descargue el paquete de controladores más reciente del sitio web de
asistencia.
Antes de instalar o actualizar los controladores, inserte los adaptadores en el equipo y conecte el cable de red. Si Windows
detecta el adaptador nuevo, intenta encontrar un controlador de Windows aceptable que ya esté instalado con el sistema
operativo.
Si lo encuentra, el controlador se instala sin intervención del usuario. Si Windows no encuentra el controlador, aparece la
ventana del asistente de detección de nuevo hardware.
Independientemente de si Windows encuentra el controlador, se recomienda seguir el procedimiento que se indica a
continuación para instalar el controlador. Los controladores de todos los adaptadores Intel compatibles con esta versión de
software están instalados.
1. Descargue los controladores más recientes desde el sitio web de asistencia y transfiéralos al sistema.
2. Si se muestra la pantalla del asistente de detección de nuevo hardware, haga clic en Cancel (Cancelar).
3. Haga doble clic en el archivo descargado.
4. Seleccione Install (Instalar) en la pantalla del paquete de actualizaciones de Dell.
5. Siga las instrucciones del asistente de instalación. Asegúrese de seleccionar Intel PROSet para la instalación.
NOTA: asegúrese de seleccionar la opción de instalación "iSCSI using Data Center Bridging" (iSCSI con puentes de
centro de datos) para sistemas que tienen un dispositivo preparado para NPAR instalado.
Paquete de actualización de Dell EMC (DUP)
El paquete de actualización de Dell EMC (DUP) es un paquete ejecutable que actualizará los controladores de red de su
sistema.
NOTAS:
l Si está instalando un controlador en un sistema con adaptadores Intel existentes, asegúrese de actualizar
todos los adaptadores y puertos con el mismo controlador y el software Intel® PROSet. Esto asegura que
todos los adaptadores funcionen correctamente.
Sintaxis
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe [/<option1>[=<value1>]] [/<option2>[=<value2>]]...
Instalación y configuración del software y los controladores de Microsoft* Windows*
59
Descripciones de las opciones de la línea de comandos
Ninguna Si no se especifican opciones de línea de comandos, el paquete le guia a través del proceso de
instalación.
/? o /h Muestra la información de uso del paquete de actualización.
/s Suprime todas las interfaces gficas de usuario del paquete de actualización.
/i Realiza una nueva instalación de los controladores incluidos en el paquete de actualización.
NOTA: se requiere la opción /s
/e=<path> Extrae todo el paquete de actualización en la carpeta definida en <path>.
NOTA: se requiere la opción /s
/drivers=<path> Extrae solo los componentes del controlador del paquete de actualización en la carpeta definida en
<path>.
NOTA: se requiere la opción /s
/driveronly Instala o actualiza solo los componentes del controlador del paquete de actualización.
NOTA: se requiere la opción /s
/passthrough (Avanzado) Ena todo el texto que hay después de la opción /passthrough directamente al software de
instalación del proveedor del paquete de actualización. Este modo suprime cualquier interfaz gráfica de
usuario proporcionada, pero no necesariamente las del software del proveedor.
/capabilities (Avanzado) Devuelve una descripción codificada de las funciones compatibles de este paquete de
actualización.
NOTA: se requiere la opción /s
/l=<path> Define una ruta de acceso específica para el archivo de registro del paquete de actualización.
NOTA: esta opción NO se puede utilizar en combinación con /passthrough ni /capabilities
/f Reemplaza un error de dependencia de software devuelto desde el paquete de actualización.
NOTA: requiere la opción /s y NO se puede utilizar en combinación con /passthrough ni
/capabilities
Ejemplos
Actualizar el sistema en modo silencioso
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s
Nueva instalación en modo silencioso
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /i
Extraer el contenido de la actualización en la carpeta C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /e=C:\mydir
Instalación y configuración del software y los controladores de Microsoft* Windows*
60
Extraer los componentes del controlador en la carpeta C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /drivers=C:\mydir
Instalar solo los componentes del controlador
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /driveronly
Cambiar la ubicación del registro predeterminada a C:\my path with spaces\log.txt
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /l="C:\my path with spaces\log.txt"
Actualizar de manera forzosa para continuar, incluso con errores de cualificación de software
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /f
Cambiar los controladores a una versn anterior
Puede utilizar las opciones /s y /f para cambiar los controladores a una versión anterior. Por ejemplo, si tiene cargados los
controladores 17.0.0 y desea cambiarlos a la versión 16.5.0, escriba lo siguiente:
Network_Driver_XXXXX_WN64_16.5.0_A00.exe /s /f
Guardar y restaurar la configuración de un adaptador
La herramienta de línea de comandos para guardar y restaurar permite copiar la configuración actual del adaptador en un
archivo independiente (por ejemplo, en una unidad USB) como medida de seguridad. En el caso de que ocurra un fallo del
disco duro, puede recuperar la mayoa de las configuraciones anteriores.
La recuperación de las opciones de configuración de red solo puede realizarse en el mismo sistema (con la misma
configuración) donde se reali la operación de guardar. Se puede utilizar el archivo donde se haya guardado la
configuración para restaurar la configuración del adaptador después de una actualización del sistema operativo. Sin
embargo, es posible que no se restauren todos los ajustes de configuración del adaptador en función de las funciones
admitidas por el nuevo sistema operativo o software de configuración del adaptador.
NOTAS:
l Solo se guarda la configuración del adaptador. El controlador del adaptador no se guarda.
l Restaure mediante la secuencia de comandos sólo una vez. Si restaura varias veces podría ocasionar una
configuración inestable.
l Intel® PROSet debe estar instalado para que funcione el script SaveRestore.ps1.
l Para los sistemas que funcionan con un sistema operativo de 64 bits, asegúrese de ejecutar la versión de 64
bits de Windows PowerShell, no la versión de 32 bits (x86), cuando ejecute el script SaveRestore.ps1.
Sintaxis de la nea de comandos
SaveRestore.ps1 –Action save|restore [-ConfigPath] [-BDF]
SaveRestore.ps1 tiene las siguientes opciones de la línea de comandos:
Opción Descripcn
-Action Requerido. Valores válidos: save | restore.
La opción save guarda la configuración del adaptador que ha cambiado respecto a la configuración
predeterminada. Cuando se restaura con el archivo resultante, se asume que cualquier configuración no
contenida en el archivo es la predeterminada.
La opción restore restaura la configuración.
Instalación y configuración del software y los controladores de Microsoft* Windows*
61
-ConfigPath Opcional. Especifica la ruta y el nombre de archivo del archivo principal para guardar la configuración. Si
no se especifica, es la ruta y el nombre de archivo predeterminado del script (saved_config.txt).
-BDF Opcional. Los nombres de archivo de configuración predeterminados son saved_config.txt y Saved_
StaticIP.txt.
Si especifica -BDF durante una restauración, el script intenta restaurar la configuración según los valores
de PCI BUS:Dispositivo:Función:Segmento para la configuración guardada. Si ha eliminado, agregado o
trasladado una NIC a una ranura diferente, esto puede dar como resultado que el script aplique la
configuración guardada a un dispositivo distinto.
NOTAS:
l Si el sistema de restauración no es idéntico al sistema guardado, el script no pod restaurar la
configuración cuando se especifique la opción -BDF.
l Los dispositivos de función virtual no admiten la opción -BDF.
l Si ha utilizado Windows para configurar los porcentajes de ancho de banda máximos y mínimos de
NPar, debe especificar /bdf durante las operaciones de guardado y restauración para mantener esa
configuración.
Ejemplos
Ejemplo de Guardar (Save)
Para guardar los ajustes del adaptador a un archivo en un dispositivo de medios extraíble, haga lo siguiente.
1. Abra un indicador de Windows PowerShell.
2. Vaya al directorio donde se encuentre SaveRestore.ps1 (por lo general, c:\Archivos de programa\Intel\Wired
Networking\PROSET).
3. Escriba lo siguiente:
SaveRestore.ps1 –Action Save –ConfigPath e:\settings.txt
Ejemplo de Restaurar (Restore)
Para restaurar los ajustes del adaptador desde un archivo en un dispositivo de medios extraíble, haga lo siguiente:
1. Abra un indicador de Windows PowerShell.
2. Vaya al directorio donde se encuentre SaveRestore.ps1 (por lo general, c:\Archivos de programa\Intel\Wired
Networking\PROSET).
3. Escriba lo siguiente:
SaveRestore.ps1 –Action Restore –ConfigPath e:\settings.txt
Configuración de las funciones del dispositivo
Configuracn con Intel
®
PROSet para el Administrador de dispositivos de
Windows*
Utilice las fichas adicionales del Administrador de dispositivos de Windows que se describen a continuación para
configurar las características del adaptador de Ethernet Intel.
NOTA: Intel® PROSet para el Administrador de dispositivos de Windows no está disponible en Microsoft* Windows
Server* 2019.
Ficha Velocidad de enlace
La ficha Velocidad de enlace le permite cambiar el valor de la velocidad y elplex del adaptador, ejecutar diagnósticos y
utilizar la función de identificación de adaptador.
Instalación y configuración del software y los controladores de Microsoft* Windows*
62
Ficha Opciones avanzadas
Las configuraciones que aparecen en la ficha Advanced (Opciones avanzadas) de Intel PROSet para el Administrador de
dispositivos de Windows le permiten personalizar cómo se encargará el adaptador del etiquetado de paquetes QoS, los
paquetes Jumbo, las descargas y otras funciones. Es posible que algunas de las funciones siguientes no estén disponibles,
dependiendo del sistema operativo que esté ejecutado, de los adaptadores espeficos instalados y de la plataforma
particular que se utilice.
Ficha Administración de energía
La ficha Administración de energía de Intel® PROSet reemplaza la ficha estándar de administración de energía del
Administrador de dispositivos de Microsoft Windows*. La funcionalidad estándar de administración de energía de Windows
se incorpora en la ficha de Intel PROSet.
NOTAS:
l Las opciones disponibles en la ficha Administración de energía dependen del adaptador y del sistema. No
todos los adaptadores mostrarán todas las opciones. Puede que haya ajustes de BIOS o del sistema
operativo que deban habilitarse para que el sistema se reactive. En concreto, esto es así en el caso de
Reactivar desde S5 (que también se conoce como Reactivar desde apagado).
l Los adaptadores de red Intel® 10 Gigabit no son compatibles con las funciones de administración de
energía.
l Si su sistema cuenta con un motor Manageability Engine, es posible que el LED de enlace permanezca
encendido aunque WoL esté inhabilitado.
l Cuando un adaptador se ejecuta en modo NPar, la administración de energía se limita a la partición raíz de
cada puerto.
Configuracn con el software Intel® PROSet para Windows PowerShell*
El software Intel® PROSet para Windows PowerShell* contiene varios cmdlets que le permiten configurar y gestionar los
adaptadores y dispositivos de Ethernet Intel® presentes en el sistema. Para obtener una lista completa de estos cmdlets y
sus descripciones, escriba get-help IntelNetCmdlets en el indicador de Windows PowerShell. Para obtener s
información de uso para cada cmdlet, escriba get-help <cmdlet_name> en el indicador de Windows PowerShell.
NOTAS:
l Los IntelNetCmdlets están firmados digitalmente. Los sistemas operativos Microsoft* Windows* comprueban
en línea las firmas digitales. En función de la conexión a Internet, esto podría provocar un retraso antes de
cualquier operación de cmdlet (incluida get-help). Sin no lo ha hecho, asegúrese de utilizar Import-Module
para importar los IntelNetCmdlets.
l La ayuda en línea (get-help -online) no es compatible.
l Para utilizar la propiedad Minihelp para cualquier cmdlet del módulo, agregue “| Select Minihelp” a la sintaxis
completa del cmdlet. Por ejemplo:
Get-IntelNetAdapterSetting -Name "<nombre_adaptador>" -RegistryKeyword *RSS | Select
Minihelp
El software Intel® PROSet para Windows PowerShell* se instala de forma predeterminada al instalar Intel PROSet.
Después de la instalación, utilice el cmdlet Import-Module para importar los nuevos cmdlets. Es posible que necesite
reiniciar Windows PowerShell para tener acceso a los cmdlets recién instalados.
Para usar el cmdlet Import-Module, debe especificar la ruta. Por ejemplo:
PS c:\> Import-Module -Name "C:\Program Files\Intel\Wired Networking\IntelNetCmdlets"
NOTA: si incluye una barra invertida ("\") al final del comando Import-Module, la operación de importación no se
realizará correctamente. En Microsoft Windows Server* 2016, la función autocompletar agrega una barra invertida. Si
utiliza autocompletar al introducir el comando Import-Module, elimine la barra invertida de la ruta antes de pulsar
Intro para ejecutar el comando.
Consulte Microsoft TechNet para obtener s información acerca del cmdlet Import-Module.
Instalación y configuración del software y los controladores de Microsoft* Windows*
63
Requisitos del sistema
l Microsoft* Windows PowerShell* versión 2.0
l .NET versión 2.0
Configuración de SR-IOV para mejorar la seguridad de red
En un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-IOV, es posible que la
función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las tramas de dos capas generadas
por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de flujo basado en la prioridad) y otros
de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual, lo que disminuye el rendimiento. Para
resolver este problema y garantizar el aislamiento de flujos de tfico no deseados, configure todos los puertos habilitados
para SR-IOV para el etiquetado VLAN desde la interfaz administrativa de la PF. Esta configuración permite descartar tramas
inesperadas y potencialmente malintencionadas.
Cambio de configuración de Intel PROSet a través de Microsoft* Windows PowerShell*
Puede utilizar el software Intel® PROSet para Windows PowerShell* para modificar la mayor parte de la configuración de
Intel PROSet.
NOTAS:
l El cmdlet Get-IntelNetAdapterStatus -Status General puede informar del estado "Link Up - This device is not
linked at its maximum capable speed" (Enlace activo - Este dispositivo no está enlazado a su máxima
capacidad de velocidad). En ese caso, si el dispositivo está establecido en negociación automática, puede
ajustar esta velocidad del interlocutor de enlace del dispositivo a la velocidad máxima del dispositivo. Si el
dispositivo no está establecido en negociación automática, puede ajustar la velocidad del dispositivo
manualmente, pero debe asegurarse de que el interlocutor de enlace se establezca a la misma velocidad.
Cambio de configuración de Intel PROSet en Windows Server Core
Puede utilizar el software Intel® PROSet para Windows PowerShell* para cambiar la mayoría de configuraciones de Intel
PROSet en Windows Server Core. Consulte el archivo de ayuda aboutIntelNetCmdlets.hlp.txt.
Para la configuración del volcado de bloqueo de iSCSI, utilice el software Intel® PROSet para Windows PowerShell* y
consulte el archivo de ayuda aboutIntelNetCmdlets.help.txt.
NOTA: se ha eliminado la compatibilidad con las funciones de líneas de comando de Intel PROSet (prosetcl.exe y
crashdmp.exe) y este ya no está instalado. Esta funcionalidad se ha sustituido por el software Intel® PROSet para
Windows PowerShell*. Migre todas sus secuencias de comandos y procesos para utilizar el software Intel® PROSet
para Windows PowerShell*.
Configuracn con Intel® PROSet Adapter Configuration Utility
Intel® PROSet Adapter Configuration Utility (Intel® PROSet ACU) es una interfaz gráfica de usuario que permite configurar
y gestionar los adaptadores Ethernet Intel® compatibles.
NOTA: Intel® PROSet ACU está disponible para Microsoft* Windows Server* 2019.
Los pasos generales de configuración son los siguientes:
1. Seleccione el adaptador en el panel de selección de adaptador.
2. Seleccione un ajuste para modificarlo en el panel de configuración del adaptador.
3. Seleccione o introduzca los valores deseados para el ajuste seleccionado.
4. Haga clic en el botón “Apply Changes” (Aplicar cambios).
64
Instalación y configuración del controlador de Linux*
Visión general
Esta versión incluye controladores base de Linux para las conexiones de red Intel®. En las siguientes secciones se ofrece
información específica sobre la compilación, la instalación, la configuración y los pametros de línea de comandos de
estos controladores:
l Controlador igb de Linux para adaptadores Ethernet Intel® basados en las controladoras I350 e I354.
l Controlador ixgbe de Linux para adaptadores Ethernet Intel® basados en las controladoras 82599, X540 y X550.
l Controlador i40e de Linux para adaptadores Ethernet Intel® basados en las controladoras X710 y XL710.
l Controlador ice de Linux para adaptadores Ethernet Intel® basados en la serie 800 de controladoras.
Consulte la sección Adaptadores compatibles para determinar el controlador que puede utilizar.
Estos controladores solo son compatibles como módulo cargable. Intel no ofrece modificaciones para el digo fuente del
kernel que permitan enlazar el controlador de forma estática.
Esta versión tambn es compatible con los controladores de virtualización de E/S de raíz única (SR-IOV). Aquí se puede
encontrar más información sobre SR-IOV. Los siguientes controladores son compatibles con los dispositivos con función
virtual enumerados que solo pueden activarse en los kernel que admitan SR-IOV. SR-IOV requiere la compatibilidad
correcta con la plataforma y el SO.
l Controlador ixgbevf de Linux para la familia de adaptadores 82599, X540, y X550 10 Gigabit.
l Controlador iavf de Linux para adaptadores basados en las siguientes controladoras:
l Ethernet Intel Serie 700
l Ethernet Intel Serie 800
NOTAS:
l En los sistemas que ejecutan Linux o ESXi, el controlador base debe cargarse para que el Dell EMC FW-
DUP funcione correctamente.
l Si planea asignar dispositivos directamente a una quina virtual en Linux, debe habilitar la compatibilidad
con la unidad de gestión de memoria de E/S para que SR-IOV funcione correctamente. Utilice los pametros
de arranque del kernel "intel_iommu=on" para placas de sistemas con procesadores Intel o "amd_iommu=on"
para placas de sistemas con procesadores AMD, y "iommu=pt" para habilitar la compatibilidad con IOMMU.
Para obtener la mejor protección de la memoria, utilice "intel_iommu=on". Para obtener el mejor rendimiento,
utilice ambos pametros ("intel_iommu=on iommu=pt").En RedHat y en la mayoría de las des
distribuciones de Linux,ada estos pametros a la entrada GRUB_CMDLINE_LINUX en el archivo de
configuración /etc/default/grub. Para sistemas que arrancan en modo UEFI, ejecute grub2-mkconfig -o
/etc/grub2-efi.cfg. Para sistemas que arrancan en modo BIOS heredado, ejecute grub2-mkconfig -o
/boot/grub2/grub.cfg.Para agregar estos parámetros en las distribuciones de Linux basadas en SUSE,
abra Yast y, a continuación, abra el cargador de arranque y haga clic en la ficha de pametros del kernel.
Agregue los parámetros opcionales en el campo de pametro de línea de comandos opcional del kernel.
Esto añade las opciones para cualquiera de los modos de arranque.Es necesario reiniciar para que los
cambios surtan efecto.
Adaptadores compatibles
Los siguientes adaptadores de red de Intel son compatibles con los controladores incluidos con esta versión:
Dispositivos compatibles con el controlador base igb de Linux
l Ethernet Intel® 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
Instalación y configuración del controlador de Linux*
65
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
l Placa posterior de conexión Ethernet Intel® I354 1.0 GbE
l Intel® Gigabit 2P I350-t LOM
l Intel® Gigabit I350-t LOM
l Intel® Gigabit 2P I350 LOM
Dispositivos compatibles con el controlador base ixgbe de Linux
l Ethernet Intel® X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador de red Ethernet Intel® 10G 2P X540-t
l Adaptador de red Ethernet Intel® 10G 2P X550-t
l Ethernet Intel® 10G 4P X550 rNDC
l Ethernet Intel® 10G 4P X550/I350 rNDC
l Ethernet Intel® 10G 4P X540/I350 rNDC
l Ethernet Intel® 10G 4P X520/I350 rNDC
l Ethernet Intel® 10G 2P X520-k bNDC
l Adaptador de red Ethernet Intel® 10G 2P X520
l Ethernet Intel® 10G X520 LOM
Dispositivos compatibles con el controlador base i40e de Linux
l Ethernet Intel® 10G 4P X710-k bNDC
l Ethernet Intel® 10G 2P X710-k bNDC
l Ethernet Intel® 10G X710-k bNDC
l Adaptador de red convergente Ethernet Intel® X710
l Adaptador de red convergente Ethernet Intel® X710-T
l Ethernet Intel® 10G 4P X710/l350 rNDC
l Ethernet Intel® 10G 4P X710 SFP+ rNDC
l Ethernet Intel® 10G X710 rNDC
l Adaptador de Ethernet Intel® X710-DA2 para servidores para OCP
l Ethernet Intel® 10G 2P X710 OCP
l Ethernet Intel® 10G 4P X710 OCP
l Ethernet Intel® 10G 2P X710-T2L-t OCP
l Ethernet Intel® 10G 4P X710-T4L-t OCP
l Adaptador de red Ethernet Intel® 10G 2P X710-T2L-t
l Adaptador de red Ethernet Intel® 10G 4P X710-T4L-t
l Adaptador de red Ethernet Intel® 25G 2P XXV710
l Ethernet Intel® 25G 2P XXV710 Mezz
l Adaptador de red convergente Ethernet Intel® XL710-Q2
l Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Dispositivos compatibles con el controlador base ice de Linux
l Ethernet Intel® 25G 2P E810-XXV OCP
l Adaptador de red Ethernet Intel® 25G 2P E810-XXV
Para verificar si el adaptador es compatible, busque elmero de ID de la tarjeta en el adaptador. Busque una etiqueta que
tenga un código de barras y un número con el formato 123456-001 (seis dígitos, guion, tres dígitos). Compárelo con la lista
demeros indicada arriba.
Para obtener s información sobre la identificación del adaptador o para obtener el controlador de red para Linux más
reciente, póngase en contacto con la asistencia al cliente.
Instalación y configuración del controlador de Linux*
66
Versiones compatibles de Linux
Los controladores de Linux se ofrecen para las siguientes distribuciones (solo son compatibles las versiones de Intel® 64):
Red Hat Enterprise Linux (RHEL):
l Red Hat* Enterprise Linux* (RHEL) 8.3
l Red Hat* Enterprise Linux* (RHEL) 8.2
l Red Hat* Enterprise Linux* (RHEL) 7.9
SUSE Linux Enterprise Server (SLES):
l Novell* SUSE* Linux Enterprise Server (SLES) 15 SP2
Particiones NIC
En los adaptadores Intel® basados en la serie 710 que lo admiten, puede configurar varias funciones en cada puerto físico.
Configure estas funciones mediante la Configuración del sistema/BIOS.
El ancho de banda TX mínimo es el ancho de banda de transmisión de datos mínimo garantizado, como porcentaje de la
velocidad completa de enlace de puerto físico, que recibirá la partición. El ancho de banda que se concede a la partición no
cae nunca por debajo del nivel que se especifica aquí.
El rango de los valores mínimos de ancho de banda es:
De 1 a (100 menos (número de particiones en el puerto físico) más 1).
Por ejemplo, si un puerto físico tiene 4 particiones, el rango sería:
De 1 a ((100 - 4) + 1 = 97)
El porcentaje de ancho de banda máximo representa el ancho de banda de transmisión máximo asignado a la partición
como porcentaje de la velocidad máxima de enlace del puerto físico. El rango de valores lido es 1-100. El valor puede
utilizarse como limitador, en caso de que elija que una función determinada no pueda consumir el 100 % del ancho de
banda de un puerto (si estuviera disponible). La suma de todos los valores de ancho de banda máximo no está limitada,
pues no se puede utilizar nunca más del 100 % del ancho de banda de un puerto.
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda máximo se
establecerá automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de bandanimo a tras del iDRAC con
el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para todas las
particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos pueden ser
diferentes de los valores que supuestamente se habían establecido. Para evitar este problema, establezca
los valores de porcentaje de ancho de bandanimo en todas las particiones mediante el uso de un único
trabajo, y aserese de que la suma de los valores es 100.
Una vez finalizada la configuración inicial, puede establecer asignaciones de ancho de banda diferentes en cada función
de la manera siguiente:
1. Cree un directorio nuevo denominado /config
2. Edite etc/fstab para que incluya:
configfs /config configfs defaults
3. Cargue (o recargue) el controlador i40e
4. Monte /config
5. Cree un directorio nuevo bajo config para cada partición en la que desee configurar el ancho de banda.
Aparecen tres archivos en el directorio config/partition:
Instalación y configuración del controlador de Linux*
67
- max_bw
- min_bw
- commit
Lea en max_bw para visualizar el ajuste máximo actual de ancho de banda.
Escriba en max_bw para establecer el ancho de banda máximo de esta función.
Lea en min_bw para visualizar el ajustenimo actual de ancho de banda.
Escriba en min_bw para establecer el ancho de bandanimo de esta función.
Escriba '1' en commit para guardar los cambios.
NOTAS:
l commit es de solo escritura. Si intenta leerlo, recibi un error.
l La escritura en commit solo se admite en la primera función de un puerto determinado. Si escribe en una
función posterior, recibi un error.
l No se admite superar el ancho de bandanimo. El NVM del dispositivo subyacente establece el ancho de
banda mínimo en los valores admitidos de una manera indeterminada. Elimine todos los directorios que
estén bajo config y vuelva a cargarlos para ver cuáles son los valores reales.
l Para descargar el controlador, primero debe eliminar los directorios creados anteriormente en el paso 5.
Ejemplo de establecer el ancho de bandanimo y ximo (suponiendo que haya cuatro funciones en el puerto eth6-eth9
y que eth6 es la primera función del puerto):
# mkdir /config/eth6
# mkdir /config/eth7
# mkdir /config/eth8
# mkdir /config/eth9
# echo 50 > /config/eth6/min_bw
# echo 100 > /config/eth6/max_bw
# echo 20 > /config/eth7/min_bw
# echo 100 > /config/eth7/max_bw
# echo 20 > /config/eth8/min_bw
# echo 100 > /config/eth8/max_bw
# echo 10 > /config/eth9/min_bw
# echo 25 > /config/eth9/max_bw
# echo 1 > /config/eth6/commit
Instalación y configuración del controlador de Linux*
68
Controlador igb de Linux* para los adaptadores Intel® Gigabit
Descripción general de igb
NOTA: en un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-IOV, es
posible que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las tramas de
dos capas generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de flujo
basado en la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual, lo que
disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento de flujos de tfico no deseados,
configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN desde la interfaz administrativa de la
PF. Esta configuración permite descartar tramas inesperadas y potencialmente malintencionadas.
NOTA: para configurar el etiquetado VLAN para los puertos en un adaptador habilitado para SR-IOV, use el
comando siguiente. La configuración de VLAN debe establecerse antes de cargar el controlador de la VF o arrancar
la VM.
# ip link set dev <id netdev PF> vf <id> vlan <vlan id>
Por ejemplo, las siguientes instrucciones configurarán PF eth0 y la primera VF en VLAN 10. $ ip link set dev eth0 vf 0
vlan 10.
El controlador igb admite una velocidad de funcionamiento de 2,5 Gbps en 2500BASE-KX solo para conexiones de red
basadas en i354.
El controlador solo es compatible como módulo cargable.
El controlador igb admite la indicación horaria de IEEE para kernel 2.6.30 y superiores.
Use ethtool, lspci o ifconfig para obtener información sobre el controlador. Se pueden encontrar instrucciones para
actualizar ethtool en la sección Configuraciones adicionales más adelante en este apartado.
Dispositivos compatibles con el controlador base igb de Linux
Los siguientes adaptadores de red de Intel son compatibles con el controlador igb incluido con esta versión:
l Ethernet Intel® 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
l Placa posterior de conexión Ethernet Intel® I354 1.0 GbE
l Intel® Gigabit 2P I350-t LOM
l Intel® Gigabit I350-t LOM
l Intel® Gigabit 2P I350 LOM
Instalación y configuración del controlador de Linux*
69
Compilación e instalación
Existen tres métodos para instalar el controlador igb:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'. Reemplace
<nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del código fuente del kernel instalado. Si acaba de recompilar el
kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/igb" o "/usr/local/src/igb".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
# tar zxf igb-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es elmero de versión del archivo tar del controlador:
# cd igb-<x.x.x>/src/
4. Compile el módulo del controlador:
# make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/igb/igb.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas, Podrían ser diferentes para las
distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se incluye en el
archivo tar del controlador.
5. Elimine el controlador antiguo:
# rmmod igb
6. Instale el módulo con el comando modprobe:
# modprobe igb <parámetro>=<valor>
7. Actualice la imagen del sistema:
dracut -f
8. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx> es el
nombre de interfaz:
# ifconfig <ethX> <dirección_IP> netmask <máscara de red> up
9. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
# ping <dirección_IP>
NOTA: algunos sistemas tienen dificultades para admitir las interrupciones MSI o MSI-X. Si en su sistema debe
desactivar este tipo de interrupción, el controlador puede compilarse e instalarse con el comando:
Instalación y configuración del controlador de Linux*
70
# make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install
Normalmente, el controlador genera una interrupción cada dos segundos. Si no se reciben las interrupciones en cat
/proc/interrupts del dispositivo ethX, posiblemente sea necesario implementar esta solución.
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM igb existentes que haya instalados actualmente en el sistema. Estas actualizaciones son
proporcionadas por SuSE en la versión SLES. Si no hay ninn RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM incluidos
es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-igb-1.3.8.6-1.x86_64.rpm:
l igb es el nombre del componente
l 1.3.8.6-1 es la versión del componente
l x86_64 es el tipo de arquitectura
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM KMP
incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión
del kernel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:
l igb es el nombre del componente
l default es el tipo de kernel
l 1.3.8.6 es la versión del componente
l 2.6.27.19_5-1 es la versión del kernel
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMP, escriba los dos comandos siguientes:
# rpm -i <nombre de archivo rpm>
# rpm -i <nombre de archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM igb KMP, escriba lo siguiente:
# rpm -i intel-igb-1.3.8.6-1.x86_64.rpm
# rpm -i intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-igb-2.3.4-1.x86_64.rpm:
l igb es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
# rpm -i <nombre de archivo rpm>
Por ejemplo, para instalar el paquete de RPM igb KMOD, escriba lo siguiente:
# rpm -i kmod-igb-2.3.4-1.x86_64.rpm
Instalación y configuración del controlador de Linux*
71
Parámetros de la línea de comandos
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la línea
de comandos junto con el comando modprobe con esta sintaxis:
# modprobe igb [<opción>=<VAL1>,<VAL2>,...]
Debe asignarse un valor (<VAL#>) a cada puerto de red en el sistema admitido por este controlador. Los valores se aplican
a cada instancia, por orden de función. Por ejemplo:
# modprobe igb InterruptThrottleRate=16000,16000
En este caso, hay dos puertos de red admitidos por igb en el sistema. Generalmente, el valor predeterminado de cada
pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
InterruptThrottleRate 0, 1, 3, 100-
100000
3 0=desactivado
1=dinámico
3 = conservador dinámico
<mín_ITR>-<máx_ITR>
El pametro InterruptThrottleRate controla elmero de
interrupciones que cada vector de interrupción puede
generar por segundo. Al aumentarse ITR se reduce la
latencia al costo de un mayor uso de CPU, si bien en
algunas circunstancias puede mejorar el flujo.
l 0 = La configuración de InterruptThrottleRate en 0
desactiva la moderación de interrupciones y puede
mejorar la latencia de pequeños paquetes. Sin
embargo, en general, no es adecuado para el tfico
de flujo de gran volumen debido al aumento del uso
de CPU de la mayor tasa de interrupciones.
l 1 = La configuración de InterruptThrottleRate en el
modo dinámico trata de moderar las interrupciones
por vector y mantener una latencia muy baja. Esto a
veces puede aumentar el uso de CPU. Si se planea
implementar este controlador en un entorno sensible
a la latencia, debe tenerse en cuenta este pametro.
l <mín_ITR>-<máx_ITR> = Al establecer
InterruptThrottleRate a un valor mayor o igual a
<mín_ITR>, se programará el adaptador para enviar
como máximo esa cantidad de interrupciones por
segundo, incluso si han entrado s paquetes. Esto
reduce la carga de interrupciones en el sistema y
puede reducir la utilización de la CPU bajo carga
pesada, pero aumentará la latencia, ya que los
paquetes no se procesan tan pidamente.
NOTA: adaptadores no soportados:
InterruptThrottleRate NO es compatible con los
adaptadores basados en 82542, 82543 o 82544.
Instalación y configuración del controlador de Linux*
72
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
LLI Las interrupciones de baja latencia (LLI) permiten la
generación inmediata de una interrupción al procesar los
paquetes de recepción que coinciden con ciertos criterios
establecidos por los pametros descritos a continuación.
Los pametros LLI no se habilitan cuando se utilizan
interrupciones tradicionales. Debe utilizar MSI o MSI-X
(consulte cat /proc/interrupts) para usar LLI correctamente.
LLIPort De 0 a 65535 0
(deshabilitado)
LLI se configura con el parámetro de línea de comandos
LLIPort, que especifica el puerto TCP que debe generar
interrupciones de baja latencia.
Por ejemplo, si se utilizara LLIPort=80, la placa generaría
una interrupción inmediata al recibir un paquete enviado al
puerto TCP 80 de la máquina local.
AVISO: la activación de LLI puede producir un
mero excesivo de interrupciones por segundo
que, a su vez, puede provocar problemas con el
sistema y en algunos casos puede crear pánico del
kernel.
LLIPush De 0 a 1 0
(deshabilitado)
LLIPush puede habilitarse o inhabilitarse (valor
predeterminado). Es más eficaz en los entornos con
numerosas transacciones pequeñas.
NOTA: si se habilita LLIPush, puede tener lugar un
ataque de denegación de servicio.
LLISize De 0 a 1500 0
(deshabilitado)
LLISize produci una interrupción inmediata si la placa
recibe un paquete cuyo tamaño es inferior al especificado.
IntMode De 0 a 2 2 El modo de interrupción controla el tiempo de carga
permitido respecto del tipo de interrupción registrado por el
controlador. Se necesita MSI-X para poder admitir varias
colas. Algunos kernel y combinaciones de opciones .config
de kernel forzan un nivel inferior de compatibilidad para
las interrupciones. 'cat /proc/interrupts' mostrará distintos
valores por cada tipo de interrupción.
0 = Interrupciones tradicionales
1 = Interrupciones MSI
2 = Interrupciones MSI-X
RSS De 0 a 8 1 0 = Asignar hasta el menor valor delmero de CPU o del
mero de colas
X = Asignar X colas, donde X es menor o igual que el
mero máximo de colas
El número máximo de colas permitido es:
l Adaptadores basados en I350: 8 colas
l Adaptadores basados en 82575: 4 colas
l Adaptadores basados en 82576 y s recientes: 8
colas
Instalación y configuración del controlador de Linux*
73
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
l Adaptadores basados en I210: 4 colas
l Adaptadores basados en I211: 2 colas
Este parámetro tambn se ve afectado por el pametro
VMDq por el hecho de que limitarán más las colas.
VMDQ
Modelo 0 1 2 3+
82575 4 4 3 1
82576 8 2 2 2
82580 8 1 1 1
VMDQ De 0 a 4 para los
adaptadores
basados en 82575
De 0 a 8 para los
adaptadores
basados en
82576/82580
0 Admite la habilitación de grupos de VMDq, necesarios para
admitir SR-IOV.
0 = deshabilitado
1 = establece netdev como grupo 0
2+ = agregar colas adicionales que actualmente no están en
uso
Se fuerza que este pametro sea 1 o más si se utiliza el
pametro de dulo max_vfs. Ades, elmero de colas
disponibles para RSS está limitado si se define en 1 o más.
NOTA: si el modo SR-IOV o VMDq está habilitado, el
filtrado de VLAN de hardware y la
eliminación/inserción de etiquetas de VLAN seguin
habilitados.
Instalación y configuración del controlador de Linux*
74
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
max_vfs De 0 a 7 0 Este pametroade compatibilidad con SR-IOV. Hace
que el controlador aumente al valor max_vfs de funciones
virtuales.
Si el valor es mayor que 0, tambn hará que el parámetro
VMDq sea igual a 1 o más.
Los pametros del controlador se referencian según la
posición. Por tanto, si tiene un adaptador de doble puerto o
más de un adaptador en el sistema, y desea N funciones
virtuales por puerto, debe especificar un mero para cada
puerto con cada pametro separado por una coma. Por
ejemplo:
# modprobe igb max_vfs=4
Esto genera 4 VF en el primer puerto.
# modprobe igb max_vfs=2,4
Esto genera 2 VF en el primer puerto y 4 VF en el segundo
puerto.
NOTAS:
l Tenga cuidado al cargar el controlador con
estos parámetros. En función de la
configuración del sistema, elmero de
ranuras, etc., es imposible predecir en todos
los casos dónde estarán las posiciones en la
línea de comandos.
l Ni el controlador ni el dispositivo controlan
cómo se asignan las VF en el espacio de
configuración. El diseño del bus variará en
función del sistema operativo. En los sistemas
operativos compatibles, puede comprobar
sysfs para encontrar la asignación.
Si el modo SR-IOV o VMDq está habilitado, el filtrado de
VLAN de hardware y la eliminación/inserción de etiquetas
de VLAN seguirán habilitados. Elimine el filtro de VLAN
antiguo antes de añadir el filtro de VLAN nuevo. Por
ejemplo:
# ip link set eth0 vf 0 vlan 100 // establecer
vlan 100 para VF 0
# ip link set eth0 vf 0 vlan 0 // eliminar vlan
100
# ip link set eth0 vf 0 vlan 200 // establecer
nueva vlan 200 para VF 0
QueuePairs De 0 a 1 1 Si se establece en 0, cuando MSI-X está habilitado, Tx y Rx
intentarán ocupar vectores separados.
Instalación y configuración del controlador de Linux*
75
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
Esta opción se puede modificar por 1 si no hay suficientes
interrupciones disponibles. Esto puede suceder si alguna
combinación de RSS, VMDQ y max_vfs produce que se
utilicen s de 4 colas.
Node 0-n, -1 -1
(desactivado)
0-n, donde n es elmero del nodo NUMA que debe
utilizarse para asignar memoria para este puerto de
adaptador.
-1 utiliza el valor predeterminado del controlador para
asignar memoria en el procesador que ejecute modprobe.
El pametro Node le permite elegir qué nodo NUMA desea
que el adaptador asigne memoria del mismo. Todas las
estructuras del controlador, colas en memoria y búferes de
recepción se asignarán en el nodo especificado. Este
pametro solo es útil cuando se especifica la afinidad de la
interrupción; de lo contrario, parte del tiempo de la
interrupción poda ejecutarse en uncleo diferente al que
tiene asignada la memoria, causando un acceso más lento
a la memoria y afectando al rendimiento, a la CPU o a
ambos.
EEE De 0 a 1 1 (habilitado) 0 = Deshabilita EEE
1 = Habilita EEE
Un vínculo entre dos dispositivos compatibles con EEE
tend como resultado cargas periódicas de datos seguidas
por periodos en los que el enlace se encontrará en estado
inactivo. Este estado inactivo de bajo consumo (LPI) es
compatible con velocidades de enlace de 1 Gbps y
100 Mbps.
NOTAS:
l La compatibilidad con EEE requiere
negociación automática.
l Ambos socios del enlace deben admitir EEE.
l EEE no es compatible con todos los
dispositivos de red Ethernet Intel® ni a todas
las velocidades de enlace.
DMAC 0, 250, 500, 1000,
2000, 3000, 4000,
5000, 6000, 7000,
8000, 9000, 10000
0
(deshabilitado)
Este parámetro habilita o deshabilita la función de
combinación de DMA. Los valores se expresan en
microsegundos y establecen el tiempo interno de la
combinación de DMA.
Instalación y configuración del controlador de Linux*
76
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
DMA (acceso directo a memoria) permite al dispositivo de
red mover datos de paquete directamente a la memoria del
sistema, lo que reduce el uso de la CPU. Sin embargo, los
intervalos aleatorios y de frecuencia a los que llegan los
paquetes no permiten al sistema entrar en un estado de
menor consumo de energía. La combinación de DMA
permite al adaptador recoger paquetes antes de iniciar un
evento DMA. Esto puede elevar la latencia de red, pero
tambn aumenta las posibilidades de que el sistema entre
en un estado de menor consumo de energía.
Si activa la combinación de DMA, es posible que ahorre
energía con kernel 2.6.32 y superior. La combinación de
DMA debe estar habilitada en todos los puertos activos para
ahorrar energía de la plataforma.
MDD De 0 a 1 1 (habilitado) 0 = deshabilitado
1 = Habilitado
Este parámetro solo es relevante para los dispositivos que
funcionan en modo SR-IOV. Cuando se establece este
pametro, el controlador detecta un controlador de VF
malicioso e inhabilita sus colas Tx/Rx hasta que se reinicia.
Configuraciones adicionales
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, así como para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool. Descárguela en:
https://kernel.org/pub/software/network/ethtool/
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que se
muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello, escriba lo
siguiente:
# dmesg -n 8
NOTA: esta configuración no se guarda entre reinicios.
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende de la
distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en /etc/modules.conf o
/etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o archivos de
configuración. Varias distribuciones Linux habituales se suministran con las herramientas necesarias para hacer estos
cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el sistema,
consulte la documentación de la distribución. Si durante este proceso se le solicita el nombre del controlador o del módulo,
igb es el nombre del controlador base de Linux para el dispositivo.
Por ejemplo, si se instala el controlador igb para dos adaptadores (eth0 y eth1) y quiere establecer el modo de interrupción
Instalación y configuración del controlador de Linux*
77
en MSI-X y MSI, agregue lo siguiente a modules.conf o /etc/modprobe.conf:
# alias eth0 igb
# alias eth1 igb
# options igb IntMode=2,1
Tramas Jumbo
La compatibilidad con las tramas Jumbo se activa cambiando la MTU a un valor mayor al valor predeterminado de 1500
bytes. Utilice el comando ifconfig para aumentar el tamaño de la MTU. Por ejemplo, introduzca lo siguiente, donde <ethX>
es elmero de la interfaz:
# ifconfig <ethX> mtu 9000 up
De forma alternativa, puede utilizar el comando ip de la siguiente manera:
# ip link set mtu 9000 dev <ethX>
# ip link set up dev <ethX>
Esta configuración no se guarda entre reinicios. El cambio de configuración se puede hacer permanente agregando “MTU
= 9000” al siguiente archivo:
l /etc/sysconfig/network-scripts/ifcfg-<ethX> para RHEL
l /etc/sysconfig/network/<archivo_config> para SLES
NOTAS:
l El valor ximo para la configuración de MTU para las tramas Jumbo es 9216 bytes. Este valor coincide con
el tamaño máximo de las tramas Jumbo de 9234 bytes.
l La utilización de tramas Jumbo a 10 o a 100 Mbps podría dar por resultado un rendimiento deficiente o la
rdida de un enlace.
l Lardida de paquetes puede tener un mayor impacto en el rendimiento cuando se utilizan tramas Jumbo.
Si observa una caída en el rendimiento después de activar las tramas Jumbo, la activación del control de flujo
puede mitigar el problema.
Configuración de la velocidad y el dúplex
Al abordar los problemas de configuración de velocidad y plex, es necesario distinguir entre los adaptadores basados en
cobre y los adaptadores basados en fibra.
En el modo predeterminado, un adaptador de red Ethernet Intel® que utilice conexiones de cobre intenta realizar la
negociación automática con su interlocutor de enlace para determinar la mejor configuración. Si no se establece un enlace
con el interlocutor de enlace mediante la negociación automática, puede que sea necesario poner el adaptador y el
interlocutor del enlace en la misma configuración manualmente, a fin de establecer el enlace y pasar paquetes. Esto se
necesario únicamente cuando se intente establecer el enlace con un conmutador antiguo que no admite la negociación
automática o uno que ha sido forzado a una velocidad o modo dúplex específicos. Su interlocutor de enlace debe coincidir
con el valor establecido. No se pueden forzar las velocidades de 1 Gbps o más. Utilice la configuración de anuncios de
negociación automática para configurar manualmente los dispositivos para 1 Gbps y velocidades superiores.
Los anuncios de velocidad, plex y negociación automática se configuran mediante la utilidad ethtool. ethtool está
incluida en todas las versiones de Red Hat posteriores a Red Hat 7.2. Para ver las configuraciones de velocidad
compatibles con su dispositivo, ejecute lo siguiente:
# ethtool <ethX>
ADVERTENCIA: solamente los administradores de red experimentados deberían forzar manualmente la velocidad
y el modo dúplex o cambiar los anuncios de negociación automática. La configuración del conmutador siempre
debe coincidir con la del adaptador. Puede verse afectado el rendimiento del adaptador o éste podría dejar de
funcionar si lo configura de manera distinta al conmutador.
Instalación y configuración del controlador de Linux*
78
Un adaptador de red Ethernet Intel® que utilice conexiones basadas en fibra no intentará realizar la negociación
automática con su interlocutor de enlace, ya que esos adaptadores solo funcionan enplex completos y solo a su
velocidad nativa.
Compatibilidad con Wake on LAN (WoL)
Algunos adaptadores no son compatibles con Wake on LAN (WoL). Para determinar si su adaptador es compatible con
WoL, ejecute el siguiente comando:
# ethtool <ethX>
WoL se configura mediante la utilidad ethtool. ethtool está incluida en todas las versiones de Red Hat posteriores a Red Hat
7.2. Para otras distribuciones de Linux, descargue e instale ethtool del sitio web siguiente:
https://kernel.org/pub/software/network/ethtool/.
Si desea instrucciones para habilitar WoL con ethtool, visite el sitio web mencionado anteriormente.
WoL se habilitará en el sistema durante el siguiente apagado o reinicio. Para esta versión del controlador, la habilitación de
WoL requiere que el controlador esté cargado antes de apagar o suspender el sistema.
NOTAS:
l Wake on LAN solo se admite en el puerto A de dispositivos de varios
puertos.
l Wake on LAN no se admite para el adaptador Intel® Gigabit VT Quad Port
Server.
Multiqueue
En este modo, se asigna un vector MSI-X separado para cada cola y uno para las “des” interrupciones, por ejemplo,
cambios o errores de estado del enlace. Todas las interrupciones se ajustan mediante su moderación. Debe usarse la
moderación de interrupciones para evitar tormentas de interrupciones mientras el controlador está procesando una sola
interrupción. El valor de moderación debe equivaler, comonimo, al tiempo esperado para que el controlador procese
una interrupción. El modo Multiqueue viene desactivado de forma predeterminada.
REQUISITOS: se necesita contar con compatibilidad con MSI-X para el modo de varias colas. Si no se encuentra MSI-X, el
sistema utiliza como alternativa MSI o las interrupciones tradicionales. Este controlador es compatible con el modo de
varias colas en las versiones del kernel 2.6.24 y posteriores. Este controlador es compatible con el modo de varias colas de
recepción en todos los kernels compatibles con MSI-X.
NOTAS:
l No utilice MSI-X con los kernel 2.6.19 o 2.6.20.
l En algunos kernels se requiere un reinicio para cambiar entre el modo de cola única y el modo de cola varias
colas o viceversa.
Large Receive Offload (LRO)
Large Receive Offload (LRO) es una técnica para aumentar el flujo entrante de las conexiones de red de alto ancho de
banda al reducir la carga de la CPU. Se agregan varios paquetes entrantes de un mismo flujo en un búfer de mayor tamaño
antes de que pasen a la pila de red, lo cual reduce la cantidad de paquetes que debe procesarse. LRO combina varias
tramas Ethernet en una misma recepción en la pila y de esta manera se puede reducir el uso de CPU para las recepciones.
LRO requiere la versión 2.4.22 o posterior del kernel.
IGB_LRO es una etiqueta que se usa en el momento de la compilación. El usuario puede habilitarla durante el momento de
la compilación paraadir compatibilidad con LRO desde el controlador. El indicador se utiliza añadiendo CFLAGS_
EXTRA="-DIGB_LRO" al archivo make cuando se está compilando.
# make CFLAGS_EXTRA="-DIGB_LRO" install
Para comprobar si el controlador utiliza LRO, observe estos contadores en ethtool:
Instalación y configuración del controlador de Linux*
79
l lro_aggregated: cuenta el total de paquetes que se combinaron
l lro_flushed: cantidad de paquetes que se eliminaron de LRO
l lro_recycled: cuenta elmero deferes devueltos al anillo desde el reciclaje
NOTA: IPv6 y UDP no son compatibles con LRO.
Reloj de hardware del protocolo de tiempo de precisión (PHC) IEEE 1588
El protocolo de tiempo de precisión (PTP) se utiliza para sincronizar los relojes en una red informática. El PTP varía en
función de los dispositivos de Intel que admite este controlador. Utilice “ethtool -T <ethX>” para obtener una lista definitiva
de las capacidades de PTP que admite el dispositivo.
NOTA: PTP requiere una versión de kernel 3.0.0 o posterior con compatibilidad con PTP habilitada en el kernel y un
daemon de software en el espacio de usuarios.
IGB_PTP es una etiqueta que se usa en el momento de la compilación. El usuario puede habilitarla durante el momento de
la compilación para agregar compatibilidad con PTP desde el controlador. La etiqueta se utiliza editando el archivo make
como se muestra a continuación cuando se está compilando:
# make CFLAGS_EXTRA="-DIGB_PTP" install
NOTA: puede que el controlador no logre compilar si el kernel no es compatible con PTP.
Para comprobar si el controlador utiliza PTP, consulte el registro del sistema para ver si un PHC ha intentado registrarse o
no. Si tiene un kernel y una versión de ethtool con compatibilidad con PTP, se puede comprobar la compatibilidad con PTP
en el controlador ejecutando:
# ethtool -T <ethX>
Función antisuplantación de identidad de MAC y VLAN para VF
Cuando un controlador malicioso en la interfaz de una función virtual (VF) intenta enviar un paquete de suplantación de
identidad, el hardware lo descarta y no se trasmite.
A continuación, manda una notificación de interrupción al controlador PF para informar del intento de suplantación de
identidad. Si se detecta un paquete de suplantación de identidad, el controlador de PF envía el siguiente mensaje al
registro del sistema (use el comando “dmesg” para verlo):
Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente mensaje al registro del sistema
(use el comando "dmesg" para verlo):
Spoof event(s) detected on VF(n)
Donde n es la VF que intentó realizar la suplantación de identidad.
Configuración de la dirección MAC, la VLAN y el límite de tasa con la
herramienta IProute2
Puede establecer la dirección MAC de una función virtual (VF), una VLAN predeterminada y el límite de tasa mediante el
uso de la herramienta IProute2. Descargue le última versión de la herramienta iproute2 desde Sourceforge si su versión no
posee todas las funciones que necesita.
Instalación y configuración del controlador de Linux*
80
Problemas conocidos
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza una
dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el controlador de la
VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática sobrevivi a una recarga del
controlador de la VF.
Problemas de hardware
Para conocer los problemas de hardware y resolución de problemas conocidos, consulte las “Notas de la versión” en su
Guía del usuario o, para obtener información más detallada, visite www.intel.es.
En el cuadro desqueda, introduzca el ID de la controladora de sus dispositivos seguido de “spec update”. El archivo de
actualización de especificaciones tiene información completa sobre los problemas de hardware conocidos.
Problemas de software
NOTA: desps de instalar el controlador, si su conexión de red Ethernet Intel® no funciona, compruebe que ha
instalado el controlador correcto. La Tecnología de gestión activa Intel® 2.0, 2.1 y 2.5 no se admite en conjunción
con el controlador de Linux.
Uso del controlador igb en kernel 2.4 o 2.6 antiguos
Debido a la compatibilidad limitada con PCI Express en los kernels 2.4 y 2.6 antiguos, el controlador igb podría presentar
problemas relacionados con las interrupciones en algunos sistemas, por ejemplo, no se conecta o se detiene al iniciar el
dispositivo.
Le recomendamos que utilice los kernels basados en 2.6 más recientes, ya que configuran correctamente el espacio de
configuración de PCI Express del adaptador y de todos los puentes intervinientes. Si necesita utilizar un kernel 2.4, utilice
un kernel 2.4 de una versión posterior a la versión 2.4.30. Para kernels 2.6, le recomendamos que utilice el kernel 2.6.21 o
una versión posterior.
Como alternativa, en los kernel 2.6 puede inhabilitar la compatibilidad con MSI iniciando el sistema con la opción
"pci=nomsi" o inhabilitar de manera permanente dicha compatibilidad en el kernel configurándolo con CONFIG_PCI_MSI
no definido.
Se detectó que la unidad de transmisión se detiene en los adaptadores de
cuatro puertos
En algunos casos, los puertos 3 y 4 no pasan el tfico e indican los errores “Detected Tx Unit Hang” seguido de “NETDEV
WATCHDOG: <ethX>: transmit timed out”. Los puertos 1 y 2 no presentan errores y pasarán el tfico.
El problema puede resolverse actualizando el kernel y el BIOS a sus versiones más recientes. Debe utilizar un sistema
operativo que sea totalmente compatible con "Message Signaled Interrupts, MSI" (Interrupciones de la señal del mensaje), y
asegúrese de que MSI está habilitada en el BIOS del sistema.
Compilación del controlador
Es probable que se produzca el error siguiente cuando intente compilar el controlador mediante la ejecución de make
install: "Linux kernel source not configured - missing version.h" (No se configuró el código fuente del kernel Linux, falta
version.h).
Para resolver este problema, cree el archivo version.h. Para ello, vaya al árbol de origen de Linux y escriba:
# make include/linux/version.h
Instalación y configuración del controlador de Linux*
81
Degradación del rendimiento con las tramas Jumbo
La degradación del rendimiento se puede observar en algunos entornos de trama Jumbo. Si se produce, aumente el
tamaño del búfer de zócalo de la aplicación o aumente los valores de la entrada /proc/sys/net/ipv4/tcp_*mem.
Para obtener s detalles, consulte el manual de la aplicación determinada y /usr/src/linux*/Documentation/networking/ip-
sysctl.txt.
Tramas Jumbo en el conmutador Foundry BigIron 8000
Hay un problema conocido cuando se usan tramas Jumbo estando conectado a un conmutador Foundry BigIron 8000. Se
trata de una limitación de terceros. Si experimenta lardida de paquetes, disminuya el tamaño de MTU.
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
# echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda entre reinicios. El cambio de configuración puede hacerse permanente si
agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores diferentes o
en un conmutador con particiones para VLAN).
Deshabilitación del control de flujo rx con ethtool
Para deshabilitar el control de flujo de recepción, se debe desactivar la negociación automática en la misma línea de
comandos:
# ethtool -A <ethX> autoneg off rx off
Desconexión del cable de red mientras se ejecuta ethtool -p
En las versiones del kernel 2.5.50 y posteriores, la desconexión del cable de red mientras se ejecuta ethtool -p ha que el
sistema no responda a los comandos emitidos con el teclado, con la excepción de Control-Alt-Supr. Aparentemente la
única solución consiste en reiniciar el sistema.
No utilice LRO al enrutar paquetes
No utilice LRO al enrutar paquetes ya que existe un problema general de compatibilidad con LRO y el enrutamiento.
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores. Estos errores son provocados por la forma
en que el kernel de Linux informa estas condiciones de mucha exigencia.
En Red Hat 5.4-GA, el sistema se puede bloquear al cerrar la ventana de SO invitado después de cargar/descargar el
controlador de la función física (PF). No elimine el controlador igb de Dom0 mientras se asignan funciones virtuales (VF) a
los invitados. Primero, las VF deben utilizar el comando xm "pci-detach" para realizar una conexión en funcionamiento del
Instalación y configuración del controlador de Linux*
82
dispositivo VF en la VM que tiene asignada o, en caso contrario, cerrar la VM.
Descargar el controlador de la función física (PF) provoca que el sistema se reinicie cuando la máquina virtual está activada
y tiene la VF cargada. No cargue el controlador PF (igb) mientras las VF estén asignadas a invitados.
Puede que el host se reinicie tras quitar la PF si la VF está activa en el invitado
Si se utilizan versiones de kernel anteriores a 3.2, no descarge el controlador de PF con VF activas. De lo contrario, las VF
dejan de funcionar hasta que recargue el controlador de PF y puede producirse un reinicio espontáneo del sistema.
Antes de descargar el controlador de la PF, primero debe asegurarse de que las VF ya no están activas. Para ello, cierre
todas las VM y descargue el controlador de la VF.
Instalación y configuración del controlador de Linux*
83
Controlador ixgbe de Linux* para los adaptadores Intel® 10
Gigabit para servidor
Descripción general de ixgbe
AVISO: el controlador ixgbe se compila de forma predeterminada con la función "Large Receive Offload" (LRO)
habilitada. Esta opción se asocia con elnimo uso de CPU para las recepciones pero es incompatible con el
enrutamiento/envío ip y los puentes. Si es indispensable habilitar el envío ip o los puentes, deberá deshabilitarse
la función LRO con las opciones de tiempo de compilación según se explica en la sección de LRO más adelante
en esta sección. Si no se deshabilita la función LRO cuando se usan los puentes o el envío ip, puede reducirse la
capacidad de procesamiento o puede producirse un error irrecuperable de kernel (pánico de kernel).
NOTA: no descargue el controlador de un puerto si hay una función virtual (VF) con una máquina virtual (VM)
activa enlazada a este. Esto ha que el puerto parezca que se bloquea. Una vez que la máquina virtual se
apaga, o bien libera la VF de cualquier otra manera, el comando se completará.
NOTA: en un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-IOV,
es posible que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las tramas
de dos capas generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de
flujo basado en la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual,
lo que disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento de flujos de tfico no
deseados, configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN desde la interfaz
administrativa de la PF. Esta configuración permite descartar tramas inesperadas y potencialmente
malintencionadas.
En este archivo se describe el controlador base de Linux* para las conexiones de red Inte 10 Gigabit. Este controlador es
compatible con los kernels 2.6.x y posteriores, e incluye compatibilidad para sistemas que admitan Linux, incluidos X86_64,
i686 y PPC.
El controlador solo es compatible como módulo cargable. Intel no ofrece modificaciones para el código fuente del kernel
que permitan enlazar el controlador de forma estática. Su distribución o el kernel ya puede incluir una versión del
controlador.
Ya están disponibles las siguientes funciones en los kernel compatibles:
l VLAN nativas
l Unión de canales (creación de equipos)
l Descarga de recepción genérica
l Habilitación de puentes de centro de datos (Data Center Bridging)
La creación de equipos de adaptadores se implementa ahora por medio del módulo de unión de canales de Linux. Esto se
incluye en los kernel compatibles de Linux. La documentación de la unn de canales se puede encontrar en el origen del
kernel de Linux: /documentation/networking/bonding.txt
Use ethtool, lspci o ifconfig para obtener información sobre el controlador. Se pueden encontrar instrucciones para
actualizar ethtool en la sección Configuraciones adicionales más adelante en este apartado.
Dispositivos compatibles con el controlador base ixgbe de Linux
Los siguientes adaptadores de red de Intel son compatibles con el controlador de Linux incluido con esta versión:
l Ethernet Intel® X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador de red Ethernet Intel® 10G 2P X540-t
l Adaptador de red Ethernet Intel® 10G 2P X550-t
Instalación y configuración del controlador de Linux*
84
l Ethernet Intel® 10G 4P X550 rNDC
l Ethernet Intel® 10G 4P X550/I350 rNDC
l Ethernet Intel® 10G 4P X540/I350 rNDC
l Ethernet Intel® 10G 4P X520/I350 rNDC
l Ethernet Intel® 10G 2P X520-k bNDC
l Adaptador de red Ethernet Intel® 10G 2P X520
l Ethernet Intel® 10G X520 LOM
Compilación e instalación
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'. Reemplace
<nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del código fuente del kernel instalado. Si acaba de recompilar el
kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/ixgbe" o "/usr/local/src/ixgbe".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
# tar zxf ixgbe-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es elmero de versión del archivo tar del controlador:
# cd ixgbe-<x.x.x>/src/
4. Compile el módulo del controlador:
# make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/ixgbe/ixgbe.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas, Podrían ser diferentes para las
distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se incluye en el
archivo tar del controlador.
NOTA: IXGBE_NO_LRO es una etiqueta que se utiliza en el momento de la compilación. Puede habilitarse
en el momento de la compilación para eliminar la compatibilidad para LRO del controlador. La etiqueta se
utiliza agregandoCFLAGS_EXTRA=-"DIXGBE_NO_LRO"” en el archivo make cuando se lo compila. Por
ejemplo:
# make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install
5. Elimine el controlador antiguo:
# rmmod ixgbe
6. Instale el módulo con el comando modprobe:
# modprobe ixgbe <parámetro>=<valor>
Instalación y configuración del controlador de Linux*
85
7. Actualice la imagen del sistema:
dracut -f
8. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx> es el
nombre de interfaz:
# ifconfig <ethX> <dirección_IP> netmask <máscara de red> up
9. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
# ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM ixgbe existentes que haya instalados actualmente en el sistema. Estas actualizaciones son
proporcionadas por SuSE en la versión SLES. Si no hay ninn RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM incluidos
es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbe-1.3.8.6-1.x86_64.rpm:
l ixgbe es el nombre del componente
l 1.3.8.6-1 es la versión del componente
l x86_64 es el tipo de arquitectura
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM KMP
incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión
del kernel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:
l ixgbe es el nombre del componente
l default es el tipo de kernel
l 1.3.8.6 es la versión del componente
l 2.6.27.19_5-1 es la versión del kernel
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMP, escriba los dos comandos siguientes:
# rpm -i <nombre de archivo rpm>
# rpm -i <nombre de archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM ixgbe KMP, escriba lo siguiente:
# rpm -i intel-ixgbe-1.3.8.6-1.x86_64.rpm
# rpm -i intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-ixgbe-2.3.4-1.x86_64.rpm:
l ixgbe es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Instalación y configuración del controlador de Linux*
86
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
# rpm -i <nombre de archivo rpm>
Por ejemplo, para instalar el paquete de RPM ixgbe KMOD, escriba lo siguiente:
# rpm -i kmod-ixgbe-2.3.4-1.x86_64.rpm
Instalación y configuración del controlador de Linux*
87
Parámetros de la línea de comandos
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la línea
de comandos junto con el comando modprobe con esta sintaxis:
# modprobe ixgbe [<opción>=<VAL1>,<VAL2>,...]
Por ejemplo:
# modprobe ixgbe InterruptThrottleRate=16000,16000
Generalmente, el valor predeterminado de cada pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
RSS De 0 a 16 1 0 = Asignar hasta el menor valor delmero de CPU o del
mero de colas
X = Asignar X colas, donde X es menor o igual que el
mero máximo de colas
RSS también afecta elmero de colas de transmisión
asignadas en los kernel 2.6.23 y s recientes con
CONFIG_NET_MULTIQUEUE definido en el archivo .config
del kernel. CONFIG_NETDEVICES_MULTIQUEUE solo es
compatible con los las versiones de kernel incluidas entre la
2.6.23 y la 2.6.26. Otras opciones activan el modo de varias
colas en las versiones de kernel 2.6.27 y superiores.
Multiqueue 0, 1 1 0 = Deshabilita la compatibilidad con varias colas
1 = Habilita la compatibilidad con varias colas (requisito
previo de RSS)
Acceso directo a
caché (DCA)
0, 1 0 = Deshabilita la compatibilidad de DCA en el controlador
1 = Habilita la compatibilidad de DCA en el controlador
Si el controlador está habilitado para DCA, este parámetro
permite el control de tiempo de carga de la función.
NOTA: DCA no es compatible con los adaptadores
basados en X550.
IntMode De 0 a 2 2 El modo de interrupción controla el tiempo de carga
permitido respecto del tipo de interrupción registrado por el
controlador. Se necesita MSI-X para poder admitir varias
colas. Algunos kernel y combinaciones de opciones .config
de kernel forzan un nivel inferior de compatibilidad para
las interrupciones. 'cat /proc/interrupts' mostrará distintos
valores por cada tipo de interrupción.
0 = Interrupciones tradicionales
1 = Interrupciones MSI
2 = Interrupciones MSI-X
Instalación y configuración del controlador de Linux*
88
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
InterruptThrottleRate De 956 a 488.281
(0=desactivado,
1=dinámico)
1 0=desactivado
1=dinámico
<mín_ITR>-<máx_ITR>
El pametro InterruptThrottleRate controla elmero de
interrupciones que cada vector de interrupción puede
generar por segundo. Al aumentarse ITR se reduce la
latencia al costo de un mayor uso de CPU, si bien en
algunas circunstancias puede mejorar el flujo.
l 0 = La configuración de InterruptThrottleRate en 0
desactiva la moderación de interrupciones y puede
mejorar la latencia de pequeños paquetes. Sin
embargo, en general, no es adecuado para el tfico
de flujo de gran volumen debido al aumento del uso
de CPU de la mayor tasa de interrupciones.
l 1 = La configuración de InterruptThrottleRate en el
modo dinámico trata de moderar las interrupciones
por vector y mantener una latencia muy baja. Esto a
veces puede aumentar el uso de CPU. Si se planea
implementar este controlador en un entorno sensible
a la latencia, debe tenerse en cuenta este pametro.
l <mín_ITR>-<máx_ITR> = Al establecer
InterruptThrottleRate a un valor mayor o igual a
<mín_ITR>, se programará el adaptador para enviar
como máximo esa cantidad de interrupciones por
segundo, incluso si han entrado s paquetes. Esto
reduce la carga de interrupciones en el sistema y
puede reducir la utilización de la CPU bajo carga
pesada, pero aumentará la latencia, ya que los
paquetes no se procesan tan pidamente.
l En los adaptadores basados en 82599, X540
y X550, si se desactiva InterruptThrottleRate,
el controlador tambn desactiva HW RSC.
l En los adaptadores basados en 82598, al
desactivar InterruptThrottleRate tambn se
desactiva LRO (Large Receive Offloads).
LLI Las interrupciones de baja latencia (LLI) permiten la
generación inmediata de una interrupción al procesar los
paquetes de recepción que coinciden con ciertos criterios
establecidos por los pametros descritos a continuación.
Los pametros LLI no se habilitan cuando se utilizan
interrupciones tradicionales. Debe utilizar MSI o MSI-X
(consulte cat /proc/interrupts) para usar LLI correctamente.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
LLIPort De 0 a 65535 0
(deshabilitado)
LLI se configura con el parámetro de línea de comandos
LLIPort, que especifica el puerto TCP que debe generar
interrupciones de baja latencia.
Instalación y configuración del controlador de Linux*
89
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
Por ejemplo, si se utilizara LLIPort=80, la placa generaría
una interrupción inmediata al recibir un paquete enviado al
puerto TCP 80 de la máquina local.
AVISO: la activación de LLI puede producir un
mero excesivo de interrupciones por segundo
que, a su vez, puede provocar problemas con el
sistema y en algunos casos puede crear pánico del
kernel.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
LLIPush De 0 a 1 0
(deshabilitado)
LLIPush puede habilitarse o inhabilitarse (valor
predeterminado). Es más eficaz en los entornos con
numerosas transacciones pequeñas.
NOTA: si se habilita LLIPush, puede tener lugar un
ataque de denegación de servicio.
LLI no es compatible con los adaptadores basados
en X550.
LLISize De 0 a 1500 0
(deshabilitado)
LLISize produci una interrupción inmediata si la placa
recibe un paquete cuyo tamaño es inferior al especificado.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
LLIEType 0 - x8FFF 0
(deshabilitado)
Este parámetro especifica el tipo de protocolo Ethernet de
Interrupción de baja latencia (LLI).
NOTA: LLI no es compatible con los adaptadores
basados en X550.
LLIVLANP De 0 a 7 0
(deshabilitado)
Este parámetro especifica el umbral de prioridad de LLI en
la VLAN.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
FdirPballoc De 1 a 3 1 (64 k) Especifica el tamaño delfer de paquetes asignado por el
Director de flujo.
1 = 64 k
2 = 128 k
3 = 256 k
AtrSampleRate De 0 a 255 20 Este parámetro se utiliza con el Director de flujo y es la tasa
de muestreo del paquete de transmisión de ATR del
software. Por ejemplo, cuando AtrSampleRate se establece
en 20, cada 20 paquetes se mira si el paquete creará un
flujo nuevo. Un valor de 0 indica que el ATR debe
desactivarse y no se toman muestras.
Instalación y configuración del controlador de Linux*
90
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
max_vfs De 1 a 63 0 Este parámetro añade compatibilidad con SR-IOV. Hace
que el controlador aumente al valor max_vfs de funciones
virtuales.
Si el valor es mayor que 0, tambn hará que el parámetro
VMDq sea igual a 1 o más.
NOTA: este pametro solo se usa en el kernel 3.7.x y
versiones anteriores. En el kernel 3.8.x y versiones
posteriores, utilice sysfs para habilitar las VF. Ades, para
las distribuciones Red Hat, este pametro solo se utiliza en
la versión 6.6 y posteriores. Para la versión 6.7 y
posteriores, utilice sysfs.
Por ejemplo, puede crear 4 VF de la siguiente manera:
# echo 4 > /sys/class/net/<ethX>/device/sriov_
numvfs
Para deshabilitar VF, escriba 0 en el mismo archivo:
# echo 0 > /sys/class/net/<ethX>/device/sriov_
numvfs
Los pametros del controlador se referencian según la
posición. Por tanto, si tiene un adaptador de doble puerto o
más de un adaptador en el sistema, y desea N funciones
virtuales por puerto, debe especificar un mero para cada
puerto con cada pametro separado por una coma. Por
ejemplo:
# modprobe var_err max_vfs=4
Esto genera 4 VF en el primer puerto.
# modprobe var_err max_vfs=2,4
Esto genera 2 VF en el primer puerto y 4 VF en el segundo
puerto.
NOTAS:
l Tenga cuidado al cargar el controlador con
estos parámetros. En función de la
configuración del sistema, elmero de
ranuras, etc., es imposible predecir en todos
los casos dónde estarán las posiciones en la
línea de comandos.
l Ni el controlador ni el dispositivo controlan
cómo se asignan las VF en el espacio de
configuración. El diseño del bus variará en
función del sistema operativo. En los sistemas
operativos compatibles, puede comprobar
sysfs para encontrar la asignación.
Instalación y configuración del controlador de Linux*
91
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
Si el modo SR-IOV o VMDq está habilitado, el filtrado de
VLAN de hardware y la eliminación/inserción de etiquetas
de VLAN seguirán habilitados. Elimine el filtro de VLAN
antiguo antes de añadir el filtro de VLAN nuevo. Por
ejemplo:
# ip link set eth0 vf 0 vlan 100 // establecer
vlan 100 para VF 0
# ip link set eth0 vf 0 vlan 0 // eliminar vlan
100
# ip link set eth0 vf 0 vlan 200 // establecer
nueva vlan 200 para VF 0
Con el kernel 3.6, el controlador admite el uso simultáneo
de las funciones max_vfs y DCB, sujeto a las restricciones
descritas a continuación. Antes del kernel 3.6, el controlador
no admia el funcionamiento simultáneo de las funciones
max_vfs mayores que 0 y DCB (varias clases de tfico
utilizan el control de flujo de prioridad y la selección de
transmisión ampliada).
Cuando se habilita DCB, el tráfico de la red se transmite y
recibe a través de varias clases de tfico (feres de
paquete en la NIC). El tfico se asocia con una clase
específica en función de la prioridad, que tiene un valor de 0
a 7 empleado en la etiqueta VLAN. Si no se habilita SR-IOV,
cada clase de tfico se asocia con un conjunto de parejas
de colas con descriptor de recepción/transmisión. El número
de parejas de colas para una determinada clase de tfico
depende de la configuración del hardware. Si se habilita R-
IOV, las parejas de colas con descriptor se agrupan en
grupos. A la función sica (PF) y a cada función virtual (VF)
se les asigna un grupo de parejas de colas con descriptor
de recepción/transmisión. Si hay varias clases de tfico
configuradas (por ejemplo, DCB está habilitado), cada
grupo contiene una pareja de colas de cada clase de tráfico.
Cuando se configura una sola clase de tfico en el
hardware, los grupos contienen varias parejas de colas de
esta única clase de tfico.
El número de VF que puede asignarse depende del número
de clases de tráfico que se pueden habilitar. Elmero
configurable de clases de tráfico de cada VF habilitada es el
siguiente:
l 0 - 15 VF = Hasta 8 clases de tráfico, en función de la
compatibilidad de los dispositivos
l 16 - 31 VF = Hasta 4 clases de tráfico
l 32 - 63 VF = 1 clase de tfico
Cuando se configuran las VF, a la PF se le asigna también
un grupo. La PF admite las funciones de DCB con la
restricción de que cada clase de tfico solo utilice una sola
pareja de colas. Si no se configura ninguna VF, la PF puede
admitir varias parejas de colas por clase de tfico.
Instalación y configuración del controlador de Linux*
92
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
LRO De 0 a 1 0=desactivado, 1=activado
Large Receive Offload (LRO) es una técnica para aumentar
el flujo entrante de las conexiones de red de alto ancho de
banda al reducir la carga de la CPU. Se agregan varios
paquetes entrantes de un mismo flujo en un búfer de mayor
tamaño antes de que pasen a la pila de red, lo cual reduce
la cantidad de paquetes que debe procesarse. LRO
combina varias tramas Ethernet en una misma recepción en
la pila y de esta manera se puede reducir el uso de CPU
para las recepciones.
Esta técnica también se conoce como combinación de
recepción basada en hardware (HW RSC). Los adaptadores
basados en 82599, X540 y X550 admiten HW RSC. El
pametro LRO controla la habilitación de HW RSC.
Para comprobar si el controlador utiliza LRO, observe estos
contadores en ethtool:
l hw_rsc_aggregated: recuento del total de paquetes
que se combinaron
l hw_rsc_flushed: cantidad de paquetes que se
eliminaron de LRO
NOTA: IPv6 y UDP no son compatibles con LRO.
EEE De 0 a 1 0 = Deshabilita EEE
1 = Habilita EEE
Un vínculo entre dos dispositivos compatibles con EEE
tend como resultado cargas periódicas de datos seguidas
por periodos en los que el enlace se encontrará en estado
inactivo. Este estado inactivo de bajo consumo (LPI) es
compatible con velocidades de enlace de 1 Gbps y 10 Gbps.
NOTAS:
l La compatibilidad con EEE requiere
negociación automática.
l Ambos socios del enlace deben admitir EEE.
l EEE no es compatible con todos los
dispositivos de red Ethernet Intel® ni a todas
las velocidades de enlace.
DMAC 0, 41-10000 Este pametro habilita o deshabilita la función de
combinación de DMA. Los valores se expresan en
microsegundos y establecen el tiempo interno de la
combinación de DMA.
NOTA: DMAC está disponible en adaptadores
basados en Intel® X550 (y posteriores).
Instalación y configuración del controlador de Linux*
93
Nombre del
parámetro
Rango y
configuracn
lidos
Valores por
defecto
Descripción
DMA (acceso directo a memoria) permite al dispositivo de
red mover datos de paquete directamente a la memoria del
sistema, lo que reduce el uso de la CPU. Sin embargo, los
intervalos aleatorios y de frecuencia a los que llegan los
paquetes no permiten al sistema entrar en un estado de
menor consumo de energía. La combinación de DMA
permite al adaptador recoger paquetes antes de iniciar un
evento DMA. Esto puede elevar la latencia de red, pero
tambn aumenta las posibilidades de que el sistema entre
en un estado de menor consumo de energía.
Si activa la combinación de DMA, es posible que ahorre
energía con kernel 2.6.32 y superior. La combinación de
DMA debe estar habilitada en todos los puertos activos para
ahorrar energía de la plataforma.
InterruptThrottleRate (ITR) debe establecerse en Dynamic
(Dinámico). Cuando ITR=0, la combinación de DMA se
inhabilita autoticamente.
Hay un documento con instrucciones para configurar mejor
su plataforma en lagina web de Intel.
MDD De 0 a 1 1 (habilitado) 0 = deshabilitado
1 = Habilitado
Este parámetro solo es relevante para los dispositivos que
funcionan en modo SR-IOV. Cuando se establece este
pametro, el controlador detecta un controlador de VF
malicioso e inhabilita sus colas Tx/Rx hasta que se reinicia.
AQRate Los dispositivos que admiten AQRate (X550 y posteriores)
incluirán 2,5 Gbps y 5 Gbps en las velocidades que el
controlador anuncia durante la negociación automática,
aunque ethtool no mostrará 2,5 Gbps o 5 Gbps como
“modos de enlace admitidos” o “modos de enlace
anunciados”. Estas velocidades solo están disponibles a
través de la negociación automática no modificada. No se
puede utilizar -s advertise de ethtool para forzar a la
negociación automática a anunciar 2,5 Gbps o 5 Gbps. Si se
crea un enlace de 2,5 Gbps o 5 Gbps, ethtool informa de
la velocidad correcta del enlace.
Configuraciones adicionales
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, así como para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool. Descárguela en:
https://kernel.org/pub/software/network/ethtool/
Instalación y configuración del controlador de Linux*
94
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende de la
distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en /etc/modules.conf o
/etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o archivos de
configuración. Varias distribuciones Linux habituales se suministran con las herramientas necesarias para hacer estos
cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el sistema,
consulte la documentación de la distribución. Si durante este proceso se le solicita el nombre del controlador o del módulo,
ixgbe es el nombre del controlador base de Linux para el dispositivo.
Por ejemplo, si se instala el controlador ixgbe para dos adaptadores (eth0 y eth1) y quiere establecer el modo de
interrupción en MSI-X y MSI, agregue lo siguiente a modules.conf o /etc/modprobe.conf:
# alias eth0 ixgbe
# alias eth1 ixgbe
# options ixgbe IntMode=2,1
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que se
muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello, escriba lo
siguiente:
# dmesg -n 8
NOTA: esta configuración no se guarda entre reinicios.
Tramas Jumbo
La compatibilidad con las tramas Jumbo se activa cambiando la MTU a un valor mayor al valor predeterminado de 1500
bytes. Utilice el comando ifconfig para aumentar el tamaño de la MTU. Por ejemplo, introduzca lo siguiente, donde <ethX>
es elmero de la interfaz:
# ifconfig <ethX> mtu 9000 up
De forma alternativa, puede utilizar el comando ip de la siguiente manera:
# ip link set mtu 9000 dev <ethX>
# ip link set up dev <ethX>
Esta configuración no se guarda entre reinicios. El cambio de configuración se puede hacer permanente agregando “MTU
= 9000” al siguiente archivo:
l /etc/sysconfig/network-scripts/ifcfg-<ethX> para RHEL
l /etc/sysconfig/network/<archivo_config> para SLES
NOTAS:
l El valor ximo para la configuración de MTU para las tramas Jumbo es 9710 bytes. Este valor coincide con
el tamaño máximo de las tramas Jumbo de 9728 bytes.
l Este controlador intentará utilizar varios búferes de tamaño degina para recibir cada paquete Jumbo. Se
estima que esto ayuda a evitar los problemas de escasez defer al asignar los paquetes de recepción.
l Lardida de paquetes puede tener un mayor impacto en el rendimiento cuando se utilizan tramas Jumbo.
Si observa una caída en el rendimiento después de activar las tramas Jumbo, la activación del control de flujo
puede mitigar el problema.
l Para las conexiones de red basadas en 82599, si habilita las tramas Jumbo en una función virtual (VF), las
tramas Jumbo deben habilitarse antes en la función sica (PF). El ajuste de VF MTU no puede ser mayor que
PF MTU.
Instalación y configuración del controlador de Linux*
95
Configuración de la velocidad y el dúplex
Al abordar los problemas de configuración de velocidad y plex, es necesario distinguir entre los adaptadores basados en
cobre y los adaptadores basados en fibra.
En el modo predeterminado, un adaptador de red Ethernet Intel® que utilice conexiones de cobre intenta realizar la
negociación automática con su interlocutor de enlace para determinar la mejor configuración. Si no se establece un enlace
con el interlocutor de enlace mediante la negociación automática, puede que sea necesario poner el adaptador y el
interlocutor del enlace en la misma configuración manualmente, a fin de establecer el enlace y pasar paquetes. Esto se
necesario únicamente cuando se intente establecer el enlace con un conmutador antiguo que no admite la negociación
automática o uno que ha sido forzado a una velocidad o modo dúplex específicos. Su interlocutor de enlace debe coincidir
con el valor establecido. No se pueden forzar las velocidades de 1 Gbps o más. Utilice la configuración de anuncios de
negociación automática para configurar manualmente los dispositivos para 1 Gbps y velocidades superiores.
Los anuncios de velocidad, plex y negociación automática se configuran mediante la utilidad ethtool. ethtool está
incluida en todas las versiones de Red Hat posteriores a Red Hat 7.2. Para ver las configuraciones de velocidad
compatibles con su dispositivo, ejecute lo siguiente:
# ethtool <ethX>
ADVERTENCIA: solamente los administradores de red experimentados deberían forzar manualmente la velocidad
y el modo dúplex o cambiar los anuncios de negociación automática. La configuración del conmutador siempre
debe coincidir con la del adaptador. Puede verse afectado el rendimiento del adaptador o éste podría dejar de
funcionar si lo configura de manera distinta al conmutador.
Un adaptador de red Ethernet Intel® que utilice conexiones basadas en fibra no intentará realizar la negociación
automática con su interlocutor de enlace, ya que esos adaptadores solo funcionan enplex completos y solo a su
velocidad nativa.
NOTA: para la conexión Ethernet Intel® X552 10 GbE SFP+, debe especificar la velocidad deseada.
Control de flujo
El control de flujo de Ethernet (IEEE 802.3x) se puede configurar con ethtool para habilitar la recepción y transmisión de
tramas de pausa para este controlador. Cuando está habilitada la transmisión, las tramas de pausa se generan cuando el
fer de paquetes de recepción cruza un umbral predefinido. Cuando está habilitada la recepción, la unidad de transmisión
se detend durante el tiempo de retraso especificado cuando se reciba una trama de pausa.
NOTAS:
l Debe contar con un interlocutor de enlace con capacidad para el control de flujo.
l Este controlador requiere control de flujo en el puerto y el interlocutor de enlace. Si el control de flujo está
deshabilitado en uno de los lados, es posible que el puerto parezca detenerse cuando hay mucho tfico.
l Para las tarjetas de placa posterior 82598 que pasan al modo de 1 gigabit, el comportamiento
predeterminado del control de flujo se desactiva. El control de flujo en el modo de 1 gigabit en estos
dispositivos puede llevar a detenciones de la transmisión.
Utilice ethtool para cambiar los ajustes de control de flujo.
Para habilitar o deshabilitar el control de flujo de Rx o Tx:
# ethtool -A <ethX> rx <on|off> tx <on|off>
NOTA: este comando solo habilita o deshabilita el control de flujo si la negociación automática está deshabilitada. Si
la negociación automática está habilitada, este comando cambia los parámetros utilizados para la negociación
automática con el interlocutor de enlace.
Para habilitar o deshabilitar la negociación automática:
# ethtool -s <ethX> autoneg <on|off>
Instalación y configuración del controlador de Linux*
96
NOTA: la negociación automática del control de flujo forma parte de la negociación autotica del enlace.
Dependiendo de su dispositivo, es posible que no pueda cambiar el ajuste de negociación automática.
Director de flujo de Ethernet Intel®
Nota: Los parámetros del Director de flujo de Ethernet Intel solo se admiten en versiones de kernel 2.6.30 o posteriores.
El Director de flujo de Ethernet Intel realiza las siguientes tareas:
l Dirige los paquetes de recepción según sus flujos a distintas colas
l Permite un control estricto al enrutar un flujo en la plataforma
l Empareja flujos y núcleos de CPU para conseguir afinidad de flujo
l Admite varios parámetros para realizar una clasificación de flujos flexible y equilibrio de carga (solo en el modo
SFP)
Un script incluido (set_irq_affinity) automatiza la configuración de IRQ en afinidad de CPU.
El enmascaramiento del Director de flujo de Ethernet Intel funciona de forma opuesta al enmascaramiento de subred. Por
ejemplo, en el siguiente comando:
# ethtool -N eth11 flow-type ip4 src-ip 172.4.1.2 m 255.0.0.0 dst-ip 172.21.1.1 m
255.128.0.0 action 31
El valor de src-ip que se escribe en el filtro será 0.4.1.2, no 172.0.0.0 como cabría esperar. De forma similar, el valor de src-
ip que se escribe en el filtro será 0.21.1.1, no 172.0.0.0.
Para habilitar el Director de flujo de Ethernet Intel:
# ethtool -K <ethX> ntuple <on|off>
Al desactivar filtros de ntuple, todos los filtros programados del usuario se vacían de la caché del controlador y el hardware.
Todos los filtros necesarios deben volver a agregarse cuando se vuelve a habilitar ntuple.
Filtros Sideband Perfect
Los filtros Sideband Perfect se usan para dirigir el tfico que coincide con unas características especificadas. Están
habilitadas a través de la interfaz ntuple de ethtool. Para habilitar o deshabilitar estos filtros:
# ethtool -K <ethX> ntuple <off|on>
Para mostrar todos los filtros activos:
# ethtool -u <ethX>
Para agregar un nuevo filtro:
# ethtool -U <ethX> flow-type <type> src-ip <ip> dst-ip <ip> src-port <port> dst-
port <port> action <queue>
Donde:
l <ethX> - el dispositivo Ethernet que programar
l <tipo>: puede ser ip4, tcp4, udp4o biensctp4
l <ip>: la dirección IP que coincida
l <port>: elmero de puerto que coincida
l <queue>: la cola hacia la que se va a dirigir el tfico (-1 descarta el tfico coincidente)
Para eliminar un filtro:
# ethtool -U <ethX> delete <N>
Donde <N> es el ID de filtro que se muestra al imprimir todos los filtros activos, y tambn puede haberse
especificado mediante “loc <N>” al agregar el filtro.
Instalación y configuración del controlador de Linux*
97
Ejemplos:
Para agregar un filtro que dirija el paquete a la cola 2:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 src-port
2000 dst-port 2001 action 2 [loc 1]
Para emparejar el tfico TCP enviado desde 192.168.0.1, puerto 5300, dirigido a 192.168.0.5, puerto 80, y enviarlo a la
cola 7:
# ethtool -U enp130s0 flow-type tcp4 src-ip 192.168.0.1 dst-ip 192.168.0.5 src-port
5300 dst-port 80 action 7
Para cada tipo de flujo, todos los filtros programados deben tener el mismo conjunto de entrada coincidente. Por ejemplo, la
emisión de los dos comandos siguientes es aceptable:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.5 src-port 55 action 10
La emisión de los dos pximos comandos, sin embargo, no es aceptable, ya que el primero especifica src-ip y el
segundo especifica dst-ip:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7
# ethtool -U enp130s0 flow-type ip4 dst-ip 192.168.0.5 src-port 55 action 10
El segundo comando falla con un error. Puede programar varios filtros con los mismos campos, utilizando diferentes
valores; pero en un dispositivo, no puede programar dos filtros tcp4 con diferentes campos coincidentes.
El emparejamiento en una subporción de un campo no es compatible con el controlador, por lo que los campos de scara
parcial no se admiten.
Filtros Flex Byte del Director de flujo
El controlador tambn admite la coincidencia de datos definidos por el usuario dentro de la carga de paquetes. Estos datos
flexibles se especifican mediante el campo "definido por el usuario" del comando ethtool de la manera siguiente:
31 28 24 20 16 15 12 8 4 0
Desplazamiento en carga de paquetes 2 bytes de datos flexibles
Por ejemplo,
... user-def 0x4FFFF ...
indica al filtro que busque 4 bytes en la carga y empareje ese valor con 0xFFFF. El desplazamiento se basa en el principio
de la carga, y no el principio del paquete. Por lo tanto:
flow-type tcp4 ... user-def 0x8BEAF ...
emparejaría los paquetes TCP/IPv4 que tienen el valor 0xBEAF de 8 bytes con la carga TCP/IPv4.
Tenga en cuenta que las cabeceras de ICMP se analizan como 4 bytes de cabecera y 4 bytes de carga. Por lo tanto, para
emparejar el primer byte de la carga, en realidad debe agregar 4 bytes al desplazamiento. Tenga en cuenta también que
los filtros ip4 coinciden tanto con las tramas ICMP como con las tramas ip4 raw (desconocido), donde la carga será la carga
L3 de la trama IP4.
El desplazamiento máximo es 64. El hardware solo leerá hasta 64 bytes de datos del paquete. El desplazamiento debe ser
equitativo porque los datos flexibles tienen una longitud de 2 bytes y deben estar alineados con el byte 0 de la carga de
paquetes.
El desplazamiento flexible definido por el usuario también se considera parte del conjunto de entrada y no se puede
programar por separado para varios filtros del mismo tipo. Sin embargo, los datos flexibles no forman parte del conjunto de
entrada, y varios filtros pueden utilizar el mismo desplazamiento, pero coincidir con datos diferentes.
Instalación y configuración del controlador de Linux*
98
Filtros para dirigir el tráfico a una VF específica
Es posible crear filtros que dirijan el tfico a una función virtual específica. Para versiones más antiguas de ethtool, esto
depende del pametro “action(acción). Especifique la acción como un valor de 64 bits, donde los 32 bits inferiores
representan el número de cola y los 8 bits siguientes representan el ID de VF. Tenga en cuenta que 0 es la PF, por lo que el
identificador de la VF está desplazado por 1. Por ejemplo:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 src-port
2000 dst-port 2001 action 0x800000002 [loc 1]
El campo de acción especifica que se dirija el tfico a la función virtual 7 (8 menos 1) en la cola 2 de dicha VF.
Las versiones más recientes de ethtool (versión 4.11 y posteriores) utilizan los pametros “vf” y “queue” (cola) en lugar del
pametro “action” (acción). Tenga en cuenta que con el nuevo pametro “vf” de ethtool no es necesario desplazar el valor
por 1. Este comando es equivalente al ejemplo anterior:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 src-port
2000 dst-port 2001 vf 7 queue 2 [loc 1]
Tenga en cuenta que estos filtros no romperán las reglas de enrutamiento interno, y no enrutan el tfico que de otra
manera no se haba enviado a la VF especificada.
Compatibilidad con RSS UDP
Esta función agrega un conmutador de APAGADO/ENCENDIDO para aplicar hash a determinados tipos de flujos. Solo se
puede activar UDP. La opción predeterminada está deshabilitada.
Solo es compatible con la habilitación o deshabilitación de hashes en puertos para UDP en IPv4 (UDP4) o IPv6 (UDP6).
NOTA: los paquetes fragmentados pueden llegar desordenados cuando se configura la compatibilidad con RSS
UDP.
Comandos y opciones de ethtool admitidos
-n --show-nfc
Recupera las configuraciones de clasificación del flujo entrante de la red.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
Recupera las opciones de hash para el tipo de tfico de red especificado.
-N --config-nfc
Configura la clasificación del flujo entrante de la red.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 m|v|t|s|d|f|n|r...
Configura las opciones de hash para el tipo de tfico de red especificado.
udp4 UDP en IPv4
udp6 UDP en IPv6
f hash en bytes 0 y 1 de la cabecera de la capa 4 del paquete rx.
n hash en bytes 2 y 3 de la cabecera de la capa 4 del paquete rx.
Los pametros FdirPballoc y AtrSampleRate afectan al Director de flujo.
Configuración del etiquetado VLAN en puertos de adaptadores habilitados para SR-IOV
Para configurar el etiquetado VLAN para los puertos en un adaptador habilitado para SR-IOV, use el comando siguiente. La
configuración de VLAN debe establecerse antes de cargar el controlador de la VF o arrancar la VM. La VF no es consciente
de que la etiqueta VLAN se inserta en la transmisión y se elimina en las tramas recibidas (a veces llamado modo “VLAN de
puerto”).
# ip link set dev <PF netdev id> vf <id> vlan <vlan id>
Instalación y configuración del controlador de Linux*
99
Por ejemplo, las siguientes instrucciones configurarán PF eth0 y la primera VF en VLAN 10:
# ip link set dev eth0 vf 0 vlan 10
Habilitación de puentes de centro de datos (DCB)
Nota: El kernel asume que TC0 está disponible y deshabilita el control de flujo de prioridad (PFC) en el dispositivo si TC0
no está disponible. Para solucionar este problema, aserese de que TC0 se ha habilitado al configurar DCB en el
conmutador.
DCB es una implementación de calidad de servicio de configuración en el hardware. Utiliza la etiqueta de prioridad VLAN
(802.1p) para filtrar el tfico. Esto significa que hay 8 prioridades diferentes con las que se puede filtrar el tfico. También
permite un control de flujo prioritario (802.1Qbb) que puede limitar o eliminar la pérdida de paquetes durante los momentos
de mayor uso de la red. Se puede asignar un ancho de banda a cada una de estas prioridades, que se aplica en el nivel de
hardware (802.1Qaz).
El firmware del adaptador implementa los agentes de los protocolos LLDP y DCBX de acuerdo con 802.1AB y 802.1Qaz,
respectivamente. Potencialmente, hay dos modos DCBX en Linux, dependiendo del dispositivo subyacente de la PF:
l Los adaptadores de controladora de Ethernet Intel serie 500 solo admiten el modo del DCBX del software. No
admiten el DCBX del firmware.
Los pametros de DCB se pueden establecer mediante un agente LLDP/DCBX del firmware. Solo puede haber un agente
LLDP/DCBX activo en una sola interfaz a la vez. Cuando el agente DCBX de firmware está activo, los agentes de software
no podn recibir ni transmitir tramas LLDP.
Cuando funciona en el modo del DCBX del firmware, el adaptador está en un estado “siempre dispuesto”. Los ajustes del
DCB se aplican en el adaptador mediante la transmisión de una configuración de no dispuesto desde el interlocutor de
enlace. Habitualmente, esto es un conmutador. Para configurar los parámetros de DCBX en un conmutador, consulte la
documentación del fabricante del conmutador.
NOTA: Adaptadores de controladora de Ethernet Intel serie 500: puede configurar pametros de DCB usando
agentes LLDP/DCBX del software que interactúan con la API de DCB Netlink del kernel de Linux. Recomendamos
usar OpenLLDP como agente DCBX. Para obtener s información, consulte las páginas del manual de OpenLLDP
y https://github.com/intel/openlldp.
Detección de controladores maliciosos (MDD) para VF
Algunos dispositivos Ethernet Intel utilizan la detección de controladores maliciosos (MDD) para detectar tfico malicioso
desde la VF y deshabilitar las colas de transmisión/recepción o descartar el paquete que causa el problema hasta que haya
un reinicio del controlador de la VF. Puede ver mensajes de MDD en el registro del sistema de la PF con el comando
dmesg.
l Si el controlador de la PF registra eventos de MDD de la VF, confirme que está instalado el controlador de la VF
correcto.
l Para restaurar la funcionalidad, puede recargar manualmente la VF o VM.
Función antisuplantación de identidad de MAC y VLAN para VF
Cuando un controlador malicioso en la interfaz de una función virtual (VF) intenta enviar un paquete de suplantación de
identidad, el hardware lo descarta y no se trasmite.
A continuación, manda una notificación de interrupción al controlador PF para informar del intento de suplantación de
identidad. Si se detecta un paquete de suplantación de identidad, el controlador de PF envía el siguiente mensaje al
registro del sistema (use el comando “dmesg” para verlo):
Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente mensaje al registro del sistema
(use el comando "dmesg" para verlo):
ixgbe <ethX>: ixgbe_spoof_check: n spoofed packets detected
Instalación y configuración del controlador de Linux*
100
donde “X” es elmero de la interfaz de la PF y “n” es elmero de paquetes de suplantación de identidad.
Esta función puede deshabilitarse para una VF concreta:
# ip link set <pf dev> vf <vf id> spoofchk {off|on}
Configuración de la dirección MAC, la VLAN y el límite de tasa con la
herramienta IProute2
Puede establecer la dirección MAC de una función virtual (VF), una VLAN predeterminada y el límite de tasa mediante el
uso de la herramienta IProute2. Descargue le última versión de la herramienta iproute2 desde Sourceforge si su versión no
posee todas las funciones que necesita.
Compatibilidad con Wake on LAN (WoL)
Algunos adaptadores no son compatibles con Wake on LAN (WoL). Para determinar si su adaptador es compatible con
WoL, ejecute el siguiente comando:
# ethtool <ethX>
WoL se configura mediante la utilidad ethtool. ethtool está incluida en todas las versiones de Red Hat posteriores a Red Hat
7.2. Para otras distribuciones de Linux, descargue e instale ethtool del sitio web siguiente:
https://kernel.org/pub/software/network/ethtool/.
Si desea instrucciones para habilitar WoL con ethtool, visite el sitio web mencionado anteriormente.
WoL se habilitará en el sistema durante el siguiente apagado o reinicio. Para esta versión del controlador, la habilitación de
WoL requiere que el controlador esté cargado antes de apagar o suspender el sistema.
NOTA: el adaptador de red convergente Ethernet Intel® X550-T1 y el adaptador de red convergente Ethernet Intel®
X550-T2 tienen un conector de capacidad de gestión/potencia AUX. Estos dispositivos solo son compatibles con
WoL si se suministra la potencia AUX a tras de este conector. Tenga en cuenta que esto es espefico del sistema
y del adaptador. Algunos adaptadores con este conector no son compatibles con WoL. Algunos sistemas no
proporcionan la conexión de potencia adecuada. Consulte la documentación del sistema para obtener s
información.
Reloj de hardware del protocolo de tiempo de precisión (PHC) IEEE 1588
El protocolo de tiempo de precisión (PTP) se utiliza para sincronizar los relojes en una red informática. El PTP varía en
función de los dispositivos de Intel que admite este controlador. Utilice “ethtool -T <ethX>” para obtener una lista definitiva
de las capacidades de PTP que admite el dispositivo.
Descargas sin estado de túnel/superposición
Los túneles y superposiciones compatibles incluyen VXLAN, GENEVE y otros, dependiendo de la configuración de
hardware y software. Las descargas sin estado están habilitadas de forma predeterminada.
Para ver el estado actual de todas las descargas:
# ethtool -k <ethX>
Límite de tasa Tx de la función virtual (VF)
Utilice el comando ip para configurar el límite de la tasa Tx para una VF desde la interfaz de la PF.
Por ejemplo, para establecer un límite de la tasa Tx de 1000 Mbps para VF 0:
# ip link set eth0 vf 0 rate 1000
Tenga en cuenta que el límite se establece por cola y no para toda la interfaz de la VF.
Instalación y configuración del controlador de Linux*
101
Limitación de la tasa de interrupción
Este controlador es compatible con un mecanismo de tasa de regulación adaptativa de interrupciones (ITR) optimizado
para cargas de trabajo generales. El usuario puede personalizar el control de la tasa de interrupción para cargas de trabajo
específicas, mediante ethtool, ajustando elmero de microsegundos entre interrupciones.
Sintaxis:
# ethtool -C <ethX> rx-usecs N
Valores para N:
l 0: sin límite
l 1: adaptativo (predeterminado)
l 2-1022:nimo de microsegundos entre cada interrupción
El rango de 0-1022 microsegundos proporciona un rango efectivo de 978 a 500 000 interrupciones por segundo. El
hardware subyacente admite la granularidad en intervalos de 2 us a 1 Gbps y 10 Gbps y de 20 us a 100 Mbps, por lo que
valores adyacentes pueden dar lugar a la misma tasa de interrupción.
Para una menor utilizacn de la CPU:
l Reduzca las interrupciones Rx y Tx por cola mediante ethtool.
l La configuración de rx-usecs en 125 limitará las interrupciones a unas 8000 por segundo y cola:
# ethtool -C <ethX> rx-usecs 125
Para una menor latencia:
l Desactive ITR estableciendo rx-usecs en 0 mediante ethtool:
# ethtool -C <ethX> rx-usecs 0
Problemas conocidos
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza una
dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el controlador de la
VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática sobrevivi a una recarga del
controlador de la VF.
Problemas de hardware
Para conocer los problemas de hardware y resolución de problemas conocidos, consulte las “Notas de la versión” en su
Guía del usuario o, para obtener información más detallada, visite www.intel.es.
En el cuadro desqueda, introduzca el ID de la controladora de sus dispositivos seguido de “spec update”. El archivo de
actualización de especificaciones tiene información completa sobre los problemas de hardware conocidos.
Problemas de software
NOTA: desps de instalar el controlador, si su conexión de red Ethernet Intel® no funciona, compruebe que ha
instalado el controlador correcto. La Tecnología de gestión activa Intel® 2.0, 2.1 y 2.5 no se admite en conjunción
con el controlador de Linux.
Incompatibilidad de LRO e iSCSI
LRO es incompatible con el tfico de inicio o destino de iSCSI. Puede producirse un error irrecuperable cuando el tfico
de iSCSI se recibe a tras del controlador ixgbe con LRO habilitada. Para resolver este problema, el controlador debe
desarrollarse e instalarse con:
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
Instalación y configuración del controlador de Linux*
102
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
# echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda entre reinicios. El cambio de configuración puede hacerse permanente si
agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores diferentes o
en un conmutador con particiones para VLAN).
Problema de paquete perdido en la prueba de presión de UDP
Bajo la presión de UDP de paquetes pequeños con el controlador ixgbe, es posible que el sistema pierda paquetes UDP
debido a que los búferes de calo están llenos. La configuración de las variables de control de flujo alnimo puede
solucionar el problema. Tambn puede intentar aumentar los tamaños de búfer predeterminados del kernel cambiando los
valores en /proc/sys/net/core/rmem_default y rmem_max.
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores. Estos errores son provocados por la forma
en que el kernel de Linux informa estas condiciones de mucha exigencia.
DCB: la descarga de segmentación genérica habilitada causa problemas de asignación
de banda ancha
Para que DCB funcione correctamente, es preciso inhabilitar la descarga de segmentación genérica (GSO), también
conocida como TSO de software, mediante ethtool. Como el hardware es compatible con TSO (descarga de segmentación
de hardware), GSO no funcionará de forma predeterminada. Es posible consultar el estado de GSO con ethtool mediante
ethtool -k ethX. Cuando se utilizan conexiones de red basadas en 82598, el controlador ixgbe solo admite 16 colas en una
plataforma con s de 16 núcleos.
Debido a limitaciones conocidas del hardware, RSS solo puede filtrar un máximo de 16 colas de recepción.
Las conexiones de red basadas en 82599, X540 y X550 admiten hasta 64 colas como máximo.
Rendimiento inferior al esperado
Algunas ranuras PCIe x8 están configuradas en realidad como ranuras x4. Estas ranuras tienen un ancho de banda
insuficiente para la velocidad de línea entera con dispositivos de dos puertos y cuatro puertos. Además, si coloca un
adaptador preparado para PCIe v4.0 o 3.0 en una ranura PCIe v2.x, no obtend el ancho de banda completo. El
controlador detecta esta situación y escribe uno de los siguientes mensajes en el registro del sistema:
"PCI Express bandwidth available for this card is not sufficient for optimal performance. (El ancho de banda disponible de
PCI Express para esta tarjeta no es suficiente para obtener un rendimiento óptimo.) For optimal performance a x8 PCI
Express slot is required. (Para conseguir un rendimiento óptimo es necesaria una ranura x8 PCI Express.)"
o bien
Instalación y configuración del controlador de Linux*
103
“PCI-Express bandwidth available for this device may be insufficient for optimal performance. Please move the device to a
different PCI-e link with more lanes and/or higher transfer rate”.
Si se produce este error, trasladar el adaptador a una ranura PCIe v3.0 x8 verdadera solucionará el problema.
ethtool puede mostrar el módulo de fibra SFP+ incorrectamente como cable de conexión
directa
Debido a las limitaciones de kernel, el tipo de puerto solo se puede visualizar correctamente en el kernel 2.6.33 o superior.
En Redhat 5.4, el sistema se puede bloquear al cerrar la ventana de SO invitado después de cargar/descargar el
controlador de la función física (PF). No elimine el controlador ixgbe de Dom0 mientras se asignan funciones virtuales (VF)
a los SO invitados. Primero, las VF deben utilizar el comando xm "pci-detach" para realizar una conexión en funcionamiento
del dispositivo VF en la VM que tiene asignada o, en caso contrario, cerrar la VM.
Descargar el controlador de la función física (PF) puede provocar pánico del kernel o el reinicio del sistema cuando la VM
está activada y tiene la VF cargada. En los kernels Linux previos a la versión 3.2, descargar el controlador de función física
(PF) provoca que el sistema se reinicie cuando la VM está activada y tiene la VF cargada. No descargue el controlador PF
(ixgbe) mientras las VF estén asignadas a invitados.
La ejecución del comando ethtool -t ethX causa una interrupción entre la PF y el cliente
de prueba
Cuando hay VF activas, "ethtool -t" solo ejecutará la prueba del enlace. El controlador también registrará en el syslog que
las VF deben apagarse para ejecutar una prueba de diagnóstico completa.
No se puede obtener concesión DHCP en el inicio con RedHat
En el caso de configuraciones donde el proceso de negociación automática tarde s de 5 segundos, el script de inicio
puede fallar con el siguiente mensaje:
"ethX: failed. No link present. Check cable?"
Este error puede producirse aunque la presencia del enlace pueda confirmarse mediante ethtool ethx. En este caso, intente
establecer "LINKDELAY=30" en /etc/sysconfig/network-scripts/ifdfg-ethx.
El mismo problema puede producirse durante un arranque de red (a tras de PXE) en distribuciones RedHat que utilizan
el script dracut:
"Warning: No carrier detected on interface <interface_name>" (Advertencia: No se ha detectado ningún dispositivo portador
en la interfaz <interface_name>)
En este caso, agregue "rd.net.timeout.carrier=30" en la línea de comandos del kernel.
NOTA: el tiempo de enlace puede variar. Ajuste el valor LINKDELAY de la forma
correspondiente.
Puede que el host se reinicie tras quitar la PF si la VF está activa en el invitado
Si se utilizan versiones de kernel anteriores a 3.2, no descarge el controlador de PF con VF activas. De lo contrario, las VF
dejan de funcionar hasta que recargue el controlador de PF y puede producirse un reinicio espontáneo del sistema.
Antes de descargar el controlador de la PF, primero debe asegurarse de que las VF ya no están activas. Para ello, cierre
todas las VM y descargue el controlador de la VF.
Instalación y configuración del controlador de Linux*
104
Controlador ixgbevf de Linux* para los adaptadores Intel® 10
Gigabit para servidor
Visión general de ixgbevf
SR-IOV es compatible con el controlador ixgbevf, que debe cargarse tanto en el host como en las quinas virtuales. Este
controlador admite las versiones de kernel emisor 2.6.30 (o superior) x86_64.
El controlador ixgbevf es compatible con los dispositivos con función virtual 82599, X540, y X550, que solo pueden
activarse en kernels que admitan SR-IOV. SR-IOV requiere la compatibilidad correcta con la plataforma y el SO.
El controlador ixgbevf requiere la versión 2.0 o superior del controlador ixgbe. El controlador ixgbevf admite funciones
virtuales generadas por el controlador ixgbe con un valor max_vfs de 1 o superior. Para obtener más información sobre el
pametro max_vfs, consulte la sección sobre el controlador ixgbe.
El SO invitado que carga el controlador ixgbevf debe ser compatible con interrupciones MSI-X.
Actualmente, el controlador solo es compatible como módulo cargable. Intel no ofrece modificaciones para el código fuente
del kernel que permitan enlazar el controlador de forma estática. Si desea más información sobre los requisitos de
hardware, consulte la documentación incluida con el adaptador Intel 10GbE. Todos los requisitos del hardware que se
incluyen en la lista se aplican al uso con Linux.
Adaptadores compatibles con el controlador base ixgbevf de Linux
Los siguientes adaptadores de red de Intel son compatibles con el controlador ixgbevf de Linux en esta versión y pueden
admitir hasta 63 funciones virtuales por puerto.
l Ethernet Intel® X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador de red Ethernet Intel® 10G 2P X540-t
l Adaptador de red Ethernet Intel® 10G 2P X550-t
l Ethernet Intel® 10G 4P X550 rNDC
l Ethernet Intel® 10G 4P X550/I350 rNDC
l Ethernet Intel® 10G 4P X540/I350 rNDC
l Ethernet Intel® 10G 4P X520/I350 rNDC
l Ethernet Intel® 10G 2P X520-k bNDC
l Adaptador de red Ethernet Intel® 10G 2P X520
l Ethernet Intel® 10G X520 LOM
Sistemas operativos preparados para SR-IOV
l Citrix XenServer 6.0 con Red Hat Enterprise Linux
l VMware* ESXi* 6.x
l Red Hat* Enterprise Linux* (RHEL) 8.3
l Red Hat* Enterprise Linux* (RHEL) 8.2
l Red Hat* Enterprise Linux* (RHEL) 7.9
l Novell* SUSE* Linux Enterprise Server (SLES) 15 SP2
Compilación e instalación
Para habilitar SR-IOV en su sistema:
1. Aserese de que tanto la virtualización como SR-IOV estén habilitadas en la BIOS.
2. Instale el sistema operativo Linux. Para comprobar si el controlador KVM está cargado, escriba: lsmod | grep -i
kvm
Instalación y configuración del controlador de Linux*
105
3. Cargue el controlador básico de Linux mediante el comando modprobe: modprobe ixgbe option max_
vfs=xx,yy
xx y yy son elmero de funciones virtuales que desea crear. Debe especificar unmero para cada puerto con
cada pametro separado con una coma. Por ejemplo, xx es elmero de funciones virtuales para el puerto 1;
mientras que yy lo es para el puerto 2. Puede crear hasta 63 funciones por puerto.
4. Compile e instale el controlador ixgbevf para SR-IOV. Este se carga contra las funciones virtuales creadas.
NOTA: para VLAN, hay un límite de 32 VLAN compartidas en total en 1 o más funciones virtuales.
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'. Reemplace
<nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del código fuente del kernel instalado. Si acaba de recompilar el
kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/ixgbevf" o "/usr/local/src/ixgbevf".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
# tar zxf ixgbevf-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es elmero de versión del archivo tar del controlador:
# cd ixgbevf-<x.x.x>/src/
4. Compile el módulo del controlador:
# make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/ixgbevf/ixgbevf.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas, Podrían ser diferentes para las
distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se incluye en el
archivo tar del controlador.
5. Elimine el controlador antiguo:
# rmmod ixgbevf
6. Instale el módulo con el comando modprobe:
# modprobe ixgbevf <parámetro>=<valor>
7. Actualice la imagen del sistema:
dracut -f
8. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx> es el
nombre de interfaz:
# ifconfig <ethX> <dirección_IP> netmask <máscara de red> up
Instalación y configuración del controlador de Linux*
106
9. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
# ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM ixgbevf existentes que haya instalados actualmente en el sistema. Estas actualizaciones
son proporcionadas por SuSE en la versión SLES. Si no hay ningún RPM en el sistema, KMP no se instalará.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM incluidos
es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbevf-1.3.8.6-1.x86_64.rpm:
l ixgbevf es el nombre del componente
l 1.3.8.6-1 es la versión del componente
l x86_64 es el tipo de arquitectura
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM KMP
incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión
del kernel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:
l ixgbevf es el nombre del componente
l default es el tipo de kernel
l 1.3.8.6 es la versión del componente
l 2.6.27.19_5-1 es la versión del kernel
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMP, escriba los dos comandos siguientes:
# rpm -i <nombre de archivo rpm>
# rpm -i <nombre de archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM ixgbevf KMP, escriba lo siguiente:
# rpm -i intel-ixgbevf-1.3.8.6-1.x86_64.rpm
# rpm -i intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-ixgbevf-2.3.4-1.x86_64.rpm:
l ixgbevf es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
# rpm -i <nombre de archivo rpm>
Por ejemplo, para instalar el paquete de RPM ixgbevf KMOD, escriba lo siguiente:
# rpm -i kmod-ixgbevf-2.3.4-1.x86_64.rpm
Instalación y configuración del controlador de Linux*
107
Parámetros de la línea de comandos
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la línea
de comandos junto con el comando modprobe con esta sintaxis:
# modprobe ixgbevf [<opción>=<VAL1>,<VAL2>,...]
Por ejemplo:
# modprobe ixgbevf InterruptThrottleRate=16000,16000
Generalmente, el valor predeterminado de cada pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuracn
lidos
Valores
por
defecto
Descripción
InterruptThrottleRate 0, 1, 956 - 488,281 8000 0=desactivado
1=dinámico
<mín_ITR>-<máx_ITR>
Utilice ethtool para controlar InterruptThrottleRate, como se muestra
a continuación:
# ethtool -C <ethX> rx-usecs N
donde N es el tiempo en microsegundos entre cada interrupción.
El pametro InterruptThrottleRate controla elmero de
interrupciones que cada vector de interrupción puede generar por
segundo. Al aumentarse ITR se reduce la latencia al costo de un
mayor uso de CPU, si bien en algunas circunstancias puede
mejorar el flujo.
l 0 = La configuración de InterruptThrottleRate en 0 desactiva
la moderación de interrupciones y puede mejorar la latencia
de pequos paquetes. Sin embargo, en general, no es
adecuado para el tfico de flujo de gran volumen debido al
aumento del uso de CPU de la mayor tasa de
interrupciones.
l 1 = La configuración de InterruptThrottleRate en el modo
dinámico trata de moderar las interrupciones por vector y
mantener una latencia muy baja. Esto a veces puede
aumentar el uso de CPU. Si se planea implementar este
controlador en un entorno sensible a la latencia, debe
tenerse en cuenta este pametro.
l <mín_ITR>-<máx_ITR> = Al establecer InterruptThrottleRate
a un valor mayor o igual a <mín_ITR>, se programa el
adaptador para enviar como máximo esa cantidad de
interrupciones por segundo, incluso si han entrado más
paquetes. Esto reduce la carga de interrupciones en el
sistema y puede reducir la utilización de la CPU bajo carga
pesada, pero aumentará la latencia, ya que los paquetes no
se procesan tan rápidamente.
l En los adaptadores basados en 82599, X540 y X550,
si se desactiva InterruptThrottleRate, el controlador
tambn desactiva HW RSC.
l En los adaptadores basados en 82598, al desactivar
Instalación y configuración del controlador de Linux*
108
Nombre del
parámetro
Rango y
configuracn
lidos
Valores
por
defecto
Descripción
InterruptThrottleRate tambn se desactiva LRO
(Large Receive Offloads).
NOTAS:
l Para obtener s información sobre el parámetro InterruptThrottleRate, consulte la nota de aplicación en
https://www.intel.com/content/www/es/es/design/products-and-solutions/processors-and-chipsets/platform-
codenames.html.
l Un descriptor describe unfer de datos y sus atributos relacionados. Esta información es accesible desde el
hardware.
Configuraciones adicionales
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende de la
distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en /etc/modules.conf o
/etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o archivos de
configuración. Varias distribuciones Linux habituales se suministran con las herramientas necesarias para hacer estos
cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el sistema,
consulte la documentación de la distribución. Si durante este proceso se le solicita el nombre del controlador o del módulo,
ixgbevf es el nombre del controlador base de Linux para el dispositivo.
Por ejemplo, si se instala el controlador ixgbevf para dos adaptadores (eth0 y eth1) y quiere establecer el modo de
interrupción en MSI-X y MSI, agregue lo siguiente a modules.conf o /etc/modprobe.conf:
# alias eth0 ixgbevf
# alias eth1 ixgbevf
# options ixgbevf IntMode=2,1
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que se
muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello, escriba lo
siguiente:
# dmesg -n 8
NOTA: esta configuración no se guarda entre reinicios.
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, así como para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool. Descárguela en:
https://kernel.org/pub/software/network/ethtool/
Instalación y configuración del controlador de Linux*
109
MACVLAN
Este controlador es compatible con MACVLAN. Para probar la compatibilidad del kernel con MACVLAN, compruebe si el
controlador MACVLAN está cargado. Puede ejecutar “lsmod | grep macvlan” para ver si el controlador MACVLAN está
cargado o bien ejecutar “modprobe macvlan” para intentar cargarlo.
NOTA:
l En el modo passthru, solo puede establecer un dispositivo MACVLAN. Heredará la dirección MAC del
dispositivo subyacente de la PF (función sica).
NAPI
Este controlador es compatible con NAPI (modo de sondeo Rx). Para obtener más información sobre NAPI, consulte
https://wiki.linuxfoundation.org/networking/napi.
Problemas conocidos
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza una
dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el controlador de la
VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática sobrevivi a una recarga del
controlador de la VF.
Problemas de hardware
Para conocer los problemas de hardware y resolución de problemas conocidos, consulte las “Notas de la versión” en su
Guía del usuario o, para obtener información más detallada, visite www.intel.es.
En el cuadro desqueda, introduzca el ID de la controladora de sus dispositivos seguido de “spec update”. El archivo de
actualización de especificaciones tiene información completa sobre los problemas de hardware conocidos.
Problemas de software
NOTA: desps de instalar el controlador, si su conexión de red Ethernet Intel® no funciona, compruebe que ha
instalado el controlador correcto.
Compilación del controlador
Es probable que se produzca el error siguiente cuando intente compilar el controlador mediante la ejecución de make
install: "Linux kernel source not configured - missing version.h" (No se configuró el código fuente del kernel Linux, falta
version.h).
Para resolver este problema, cree el archivo version.h. Para ello, vaya al árbol de origen de Linux y escriba:
# make include/linux/version.h
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
# echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
Instalación y configuración del controlador de Linux*
110
NOTA: esta configuración no se guarda entre reinicios. El cambio de configuración puede hacerse permanente si
agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores diferentes o
en un conmutador con particiones para VLAN).
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores. Estos errores son provocados por la forma
en que el kernel de Linux informa estas condiciones de mucha exigencia.
Puede que el host se reinicie tras quitar la PF si la VF está activa en el invitado
Si se utilizan versiones de kernel anteriores a 3.2, no descarge el controlador de PF con VF activas. De lo contrario, las VF
dejan de funcionar hasta que recargue el controlador de PF y puede producirse un reinicio espontáneo del sistema.
Antes de descargar el controlador de la PF, primero debe asegurarse de que las VF ya no están activas. Para ello, cierre
todas las VM y descargue el controlador de la VF.
Instalación y configuración del controlador de Linux*
111
Controlador i40e de Linux para la controladora de Ethernet Intel
serie 700
Visión general de i40e
NOTA: el kernel asume que TC0 está disponible y deshabilitará el control de flujo de prioridad (PFC) en el
dispositivo si TC0 no está disponible. Para solucionar este problema, aserese de que TC0 se ha habilitado al
configurar DCB en el conmutador.
NOTA: si el enlace de la función sica (PF) está inactivo, puede forzar la activación del enlace (desde la PF host) en
cualquier función virtual (VF) enlazada a la PF. Tenga en cuenta que esta solución requiere compatibilidad del
kernel (kernel Redhat 3.10.0-327 o posterior, kernel emisor 3.11.0 o posterior, y compatibilidad de espacio de
usuario iproute2 asociado). Si el comando siguiente no funciona, puede que no sea compatible con su sistema. El
siguiente comando fuerza la activación del enlace en la VF 0 enlazada a la PF eth0:
ip link set eth0 vf 0 state enable
NOTA: no descargue el controlador de un puerto si una función virtual (VF) con una quina virtual (VM) activa está
vinculada a él. Esto ha que el puerto parezca que se bloquea. Una vez que la máquina virtual se apaga, o bien
libera la VF de cualquier otra manera, el comando se completará.
NOTA: en un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-IOV, es
posible que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las tramas de
dos capas generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de flujo
basado en la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual, lo que
disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento de flujos de tfico no deseados,
configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN desde la interfaz administrativa de la
PF. Esta configuración permite descartar tramas inesperadas y potencialmente malintencionadas.
El controlador base i40e de Linux* para la familia de adaptadores de controladora de Ethernet Intel serie 700 es compatible
con los kernels 2.6.32 y s recientes, e incluye compatibilidad con los sistemas x86_64 compatibles con Linux.
Ya están disponibles las siguientes funciones en los kernel compatibles:
l Encapsulación de VXLAN
l VLAN nativas
l Unión de canales (creación de equipos)
l Descarga de recepción genérica
l Habilitación de puentes de centro de datos (Data Center Bridging)
La creación de equipos de adaptadores se implementa por medio del módulo de unión de canales de Linux. Esto se
incluye en los kernel compatibles de Linux. La documentación de la unn de canales se puede encontrar en el origen del
kernel de Linux: /Documentation/networking/bonding.txt
Use ethtool, lspci o el comando ip de iproute2 para obtener información sobre el controlador. Se pueden encontrar
instrucciones para actualizar ethtool en la sección Configuraciones adicionales.
Dispositivos compatibles con el controlador base i40e de Linux
Los siguientes adaptadores de red de Intel son compatibles con este controlador:
l Ethernet Intel® 10G 4P X710-k bNDC
l Ethernet Intel® 10G 2P X710-k bNDC
l Ethernet Intel® 10G X710-k bNDC
l Adaptador de red convergente Ethernet Intel® X710
l Adaptador de red convergente Ethernet Intel® X710-T
l Ethernet Intel® 10G 4P X710/l350 rNDC
l Ethernet Intel® 10G 4P X710 SFP+ rNDC
Instalación y configuración del controlador de Linux*
112
l Ethernet Intel® 10G X710 rNDC
l Adaptador de Ethernet Intel® X710-DA2 para servidores para OCP
l Ethernet Intel® 10G 2P X710 OCP
l Ethernet Intel® 10G 4P X710 OCP
l Ethernet Intel® 10G 2P X710-T2L-t OCP
l Ethernet Intel® 10G 4P X710-T4L-t OCP
l Adaptador de red Ethernet Intel® 10G 2P X710-T2L-t
l Adaptador de red Ethernet Intel® 10G 4P X710-T4L-t
l Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
l Adaptador de red convergente Ethernet Intel® XL710-Q2
l Adaptador de red Ethernet Intel® 25G 2P XXV710
l Ethernet Intel® 25G 2P XXV710 Mezz
Compilación e instalación
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'. Reemplace
<nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del código fuente del kernel instalado. Si acaba de recompilar el
kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/i40e" o "/usr/local/src/i40e".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
# tar zxf i40e-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es elmero de versión del archivo tar del controlador:
# cd i40e-<x.x.x>/src/
4. Compile el módulo del controlador:
# make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/i40e/i40e.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas, Podrían ser diferentes para las
distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se incluye en el
archivo tar del controlador.
5. Elimine el controlador antiguo:
# rmmod i40e
6. Instale el módulo con el comando modprobe:
# modprobe i40e <parámetro>=<valor>
Instalación y configuración del controlador de Linux*
113
NOTA: para RHEL 7.5 o versiones posteriores, debe descargar el controlador i40iw antes de eliminar los
controladores i40e más antiguos.
7. Actualice la imagen del sistema:
dracut -f
8. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx> es el
nombre de interfaz:
# ifconfig <ethX> <dirección_IP> netmask <máscara de red> up
9. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
# ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM i40e existentes que haya instalados actualmente en el sistema. Estas actualizaciones son
proporcionadas por SuSE en la versión SLES. Si no hay ninn RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM incluidos
es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-i40e-1.3.8.6-1.x86_64.rpm:
l i40e es el nombre del componente
l 1.3.8.6-1 es la versión del componente
l x86_64 es el tipo de arquitectura
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM KMP
incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión
del kernel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:
l i40e es el nombre del componente
l default es el tipo de kernel
l 1.3.8.6 es la versión del componente
l 2.6.27.19_5-1 es la versión del kernel
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMP, escriba los dos comandos siguientes:
# rpm -i <nombre de archivo rpm>
# rpm -i <nombre de archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM i40e KMP, escriba lo siguiente:
# rpm -i intel-i40e-1.3.8.6-1.x86_64.rpm
# rpm -i intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-i40e-2.3.4-1.x86_64.rpm:
Instalación y configuración del controlador de Linux*
114
l i40e es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
# rpm -i <nombre de archivo rpm>
Por ejemplo, para instalar el paquete de RPM i40e KMOD, escriba lo siguiente:
# rpm -i kmod-i40e-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
En general, ethtool y otros comandos específicos del sistema operativo se utilizan para configurar los pametros
modificables por el usuario desps de que se cargue el controlador. El controlador i40e solo es compatible con el
pametro de kernel max_vfs en los kernel s antiguos que no cuentan con la interfaz sysfs estándar. El otro pametro
del módulo es el parámetro de depuración que puede controlar el nivel de detalle de registro predeterminado del
controlador.
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la línea
de comandos junto con el comando modprobe con esta sintaxis:
# modprobe i40e [<opción>=<VAL1>]
Por ejemplo:
# modprobe i40e max_vfs=7
Generalmente, el valor predeterminado de cada pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuracn
lidos
Valores
por
defecto
Descripción
max_vfs 1-32 (dispositivos
basados en la
controladora de
Ethernet Intel X710)
1-64 (dispositivos
basados en la
controladora de
Ethernet Intel
XXV710/XL710)
0 Este parámetro añade compatibilidad con SR-IOV. Hace que el
controlador aumente al valor max_vfs de funciones virtuales.
NOTA: este pametro solo se usa en el kernel 3.7.x y versiones
anteriores. En el kernel 3.8.x y versiones posteriores, utilice sysfs para
habilitar las VF. Ades, para las distribuciones Red Hat, este
pametro solo se utiliza en la versión 6.6 y posteriores. Para la versión
6.7 y posteriores, utilice sysfs.
Por ejemplo, puede crear 4 VF de la siguiente manera:
# echo 4 > /sys/class/net/<ethX>/device/sriov_numvfs
Para deshabilitar VF, escriba 0 en el mismo archivo:
# echo 0 > /sys/class/net/<ethX>/device/sriov_numvfs
Los pametros del controlador se referencian según la posición. Por
tanto, si tiene un adaptador de doble puerto o más de un adaptador en
el sistema, y desea N funciones virtuales por puerto, debe especificar
unmero para cada puerto con cada pametro separado por una
coma. Por ejemplo:
# modprobe i40e max_vfs=4
Esto genera 4 VF en el primer puerto.
# modprobe i40e max_vfs=2,4
Instalación y configuración del controlador de Linux*
115
Nombre del
parámetro
Rango y
configuracn
lidos
Valores
por
defecto
Descripción
Esto genera 2 VF en el primer puerto y 4 VF en el segundo puerto.
NOTAS:
l Tenga cuidado al cargar el controlador con estos
pametros. En función de la configuración del sistema,
elmero de ranuras, etc., es imposible predecir en
todos los casos dónde estarán las posiciones en la línea
de comandos.
l Ni el controlador ni el dispositivo controlan cómo se
asignan las VF en el espacio de configuración. El diseño
del bus variará en función del sistema operativo. En los
sistemas operativos compatibles, puede comprobar sysfs
para encontrar la asignación.
Algunas configuraciones de hardware admiten menos instancias de
SR-IOV, ya que toda la controladora de Ethernet Intel XL710 (todas las
funciones) está limitada a 128 interfaces de SR-IOV en total.
Si el modo SR-IOV está habilitado, el filtrado de VLAN de hardware y la
eliminación/inserción de etiquetas de VLAN seguin habilitados.
Elimine el filtro de VLAN antiguo antes deadir el filtro de VLAN
nuevo. Por ejemplo:
# ip link set eth0 vf 0 vlan 100 // establecer vlan 100
para VF 0
# ip link set eth0 vf 0 vlan 0 // eliminar vlan 100
# ip link set eth0 vf 0 vlan 200 // establecer nueva
vlan 200 para VF 0
Configuraciones adicionales
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, así como para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool. Descárguela en:
https://kernel.org/pub/software/network/ethtool/
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que se
muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello, escriba lo
siguiente:
# dmesg -n 8
NOTA: esta configuración no se guarda entre reinicios.
Instalación y configuración del controlador de Linux*
116
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende de la
distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en /etc/modules.conf o
/etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o archivos de
configuración. Varias distribuciones Linux habituales se suministran con las herramientas necesarias para hacer estos
cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el sistema,
consulte la documentación de la distribución. Si durante este proceso se le solicita el nombre del controlador o del módulo,
i40e es el nombre del controlador base de Linux para el dispositivo.
Mostrar estadísticas de la VF en la PF
Utilice el siguiente comando de ethtool para mostrar las estadísticas de todas las VF en la PF:
# ethtool -S <ethX>
NOTA: el resultado de este comando es muy largo debido al gran número de estadísticas de la VF y el número
máximo de VF posibles.
El controlador de la PF mostrará un subconjunto de las estadísticas de la VF, como se proporcionan en el controlador de la
VF, para todas las VF configuradas. La PF siempre imprimi un bloque de estadísticas por cada una de las VF posibles y
mostrará un cero para todas las VF sin configurar. Las estadísticas de las VF se enumeran en un solo bloque al final de las
estadísticas de la PF, mediante la siguiente convención de nombre:
vf<XXX>.<nombre de estadística>
Donde:
l <XXX> es el número de la VF (por ejemplo, vf008).
l <nombre de estadística> es el nombre de la estadística tal como la proporciona el controlador de la VF.
Por ejemplo:
vf008.rx_bytes: 0
vf008.rx_unicast: 0
vf008.rx_multicast: 0
vf008.rx_broadcast: 0
vf008.rx_discards: 0
vf008.rx_unknown_protocol: 0
vf008.tx_bytes: 0
vf008.tx_unicast: 0
vf008.tx_multicast: 0
vf008.tx_broadcast: 0
vf008.tx_discards: 0
vf008.tx_errors: 0
Configuración del etiquetado VLAN en puertos de adaptadores habilitados para SR-IOV
Para configurar el etiquetado VLAN para los puertos en un adaptador habilitado para SR-IOV, use el comando siguiente. La
configuración de VLAN debe establecerse antes de cargar el controlador de la VF o arrancar la VM. La VF no es consciente
de que la etiqueta VLAN se inserta en la transmisión y se elimina en las tramas recibidas (a veces llamado modo “VLAN de
puerto”).
Instalación y configuración del controlador de Linux*
117
# ip link set dev <PF netdev id> vf <id> vlan <vlan id>
Por ejemplo, las siguientes instrucciones configurarán PF eth0 y la primera VF en VLAN 10:
# ip link set dev eth0 vf 0 vlan 10
Establecer la dirección MAC para una VF
Para cambiar la dirección MAC de la VF especificada:
# ip link set <ethX> vf 0 mac <address>
Por ejemplo:
# ip link set <ethX> vf 0 mac 00:01:02:03:04:05
Esta configuración dura hasta que la PF se recarga.
NOTA: la asignación de una dirección MAC a una VF desde el host deshabilitará cualquier solicitud posterior para
cambiar la dirección MAC desde dentro de la VM. Esto es una función de seguridad. La VM no tiene constancia de
esta restricción, por lo que si se intenta en la VM, desencadenará eventos de MDD.
VF de confianza y modo promiscuo de VF
Esta función le permite designar una determinada VF como de confianza, y permite que esta VF de confianza solicite el
modo promiscuo selectivo en la función física (PF).
Para establecer una VF como de confianza o no de confianza, introduzca el comando siguiente en el hipervisor:
# ip link set dev eth0 vf 1 trust [on|off]
NOTA: es importante establecer la VF en “de confianza” antes de establecer el modo promiscuo. Si la VM no es de
confianza, la PF ignorará las solicitudes de modo promiscuo de la VF. Si la VM se vuelve de confianza desps de
haber cargado el controlador de la VF, debe hacer una nueva solicitud para establecer la VF en promiscua.
Una vez que la VF se ha designado como de confianza, utilice los siguientes comandos en la VM para establecer la VF en
modo promiscuo.
l Para establecer todo en promiscuo: # ip link set eth2 promisc on
donde eth2 es una interfaz de la VF en la VM
l Para multidifusión promiscua: # ip link set eth2 allmulticast on
donde eth2 es una interfaz de la VF en la VM
NOTA: de forma predeterminada, el indicador privado de ethtool vf-true-promisc-support está establecido en “off
(desactivado), lo que significa que el modo promiscuo para la VF será limitado. Para establecer el modo promiscuo
para la VF en verdaderamente promiscuo y permitir que la VF vea todo el tfico de entrada, utilice el comando
siguiente:
# ethtool --set-priv-flags p261p1 vf-true-promisc-support on
El indicador privado vf-true-promisc-support no habilita el modo promiscuo, sino que designa qué tipo de modo promiscuo
(limitado o verdadero) obtendrá al habilitar el modo promiscuo mediante los comandos de enlace ip anteriores. Tenga en
cuenta que esta es una configuración global que afecta a todo el dispositivo. Sin embargo, el indicador privado vf-true-
promisc-support solo se expone a la primera PF del dispositivo. La PF continúa en modo promiscuo limitado(a menos que
esté en modo MFP)independientemente de la configuración vf-true-promisc-support.
A continuación, agregue una interfaz VLAN en la interfaz de la VF.
# ip link add link eth2 name eth2.100 type vlan id 100
Tenga en cuenta que el orden en el que establece la VF en modo promiscuo y agrega la interfaz VLAN no importa (puede
hacer cualquiera de las acciones primero). El resultado de este ejemplo es que la VF obtendrá todo el tfico etiquetado
con VLAN 100.
Instalación y configuración del controlador de Linux*
118
Límite de tasa Tx de la función virtual (VF)
Utilice el comando ip para configurar el límite de la tasa Tx para una VF desde la interfaz de la PF.
Por ejemplo, para establecer un límite de la tasa Tx de 1000 Mbps para VF 0:
# ip link set eth0 vf 0 rate 1000
Detección de controladores maliciosos (MDD) para VF
Algunos dispositivos Ethernet Intel utilizan la detección de controladores maliciosos (MDD) para detectar tfico malicioso
desde la VF y deshabilitar las colas de transmisión/recepción o descartar el paquete que causa el problema hasta que haya
un reinicio del controlador de la VF. Puede ver mensajes de MDD en el registro del sistema de la PF con el comando
dmesg.
l Si el controlador de la PF registra eventos de MDD de la VF, confirme que está instalado el controlador de la VF
correcto.
l Para restaurar la funcionalidad, puede recargar manualmente la VF o VM.
Función antisuplantación de identidad de MAC y VLAN para VF
Cuando un controlador malicioso en la interfaz de una función virtual (VF) intenta enviar un paquete de suplantación de
identidad, el hardware lo descarta y no se trasmite.
Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente mensaje al registro del sistema
(use el comando "dmesg" para verlo):
Esta función puede deshabilitarse para una VF concreta:
# ip link set <pf dev> vf <vf id> spoofchk {off|on}
Director de flujo de Ethernet Intel®
Nota: Los parámetros del Director de flujo de Ethernet Intel solo se admiten en versiones de kernel 2.6.30 o posteriores.
El Director de flujo de Ethernet Intel realiza las siguientes tareas:
l Dirige los paquetes de recepción según sus flujos a distintas colas
l Permite un control estricto al enrutar un flujo en la plataforma
l Empareja flujos y núcleos de CPU para conseguir afinidad de flujo
l Admite varios parámetros para realizar una clasificación de flujos flexible y equilibrio de carga (solo en el modo
SFP)
Un script incluido (set_irq_affinity) automatiza la configuración de IRQ en afinidad de CPU.
Este controlador admite los siguientes tipos de flujo:
l IPv4
l TCPv4
l UDPv4
Para un determinado tipo de flujo, admite combinaciones válidas de direcciones IP (origen o destino) y puertos UDP/TCP
(origen y destino). Por ejemplo, puede proporcionar solo una dirección IP de origen, una dirección IP de origen y un puerto
de destino, o cualquier combinación de uno o más de estos cuatro parámetros.
Este controlador le permite filtrar el tráfico en función de un desplazamiento y un patrón de dos bytes flexible definidos por
el usuario mediante el uso de los campos de máscara y user-def de ethtool. Solo los tipos de flujo L3 y L4 son compatibles
para los filtros flexibles definidos por el usuario. Para un determinado tipo de flujo, debe borrar todos los filtros del Director
de flujo de Ethernet Intel antes de cambiar el conjunto de entrada (para ese tipo de flujo).
Para habilitar el Director de flujo de Ethernet Intel:
# ethtool -K <ethX> ntuple <on|off>
Instalación y configuración del controlador de Linux*
119
Al desactivar filtros de ntuple, todos los filtros programados del usuario se vacían de la caché del controlador y el hardware.
Todos los filtros necesarios deben volver a agregarse cuando se vuelve a habilitar ntuple.
Filtros Application Targeted Routing (ATR) Perfect
ATR del Director de flujo de Ethernet Intel está habilitado de forma predeterminada cuando el kernel está en modo de
varias colas de transmisión. Se agrega una regla cuando un flujo TCP comienza y se elimina cuando el flujo termina.
Puesto que esto interferiría con las reglas Sideband de TCP, el controlador automáticamente deshabilita ATR cuando se
agrega una regla de TCP mediante ethtool (Sideband). ATR se vuelve a habilitar automáticamente cuando todas las reglas
Sideband de TCP se eliminan o cuando Sideband se deshabilita.
Puede habilitar o deshabilitar ATR mediante la interfaz de indicadores privados de ethtool. Para ver la configuración actual:
# ethtool --show-priv-flags <ethX>
Para cambiar la configuración:
# ethtool --set-priv-flags <ethX> flow-director-atr [off|on]
Los paquetes que cumplen las reglas de ATR aumentarán la estadística de port.fdir_atr_match en ethtool. El estado
operativo actual de ATR está reflejado por la estadística port.fdir_atr_status.
Filtros Sideband Perfect
Los filtros Sideband Perfect se usan para dirigir el tfico que coincide con unas características especificadas. Están
habilitadas a través de la interfaz ntuple de ethtool. Para habilitar o deshabilitar estos filtros:
# ethtool -K <ethX> ntuple <off|on>
Para mostrar todos los filtros activos:
# ethtool -u <ethX>
Para agregar un nuevo filtro:
# ethtool -U <ethX> flow-type <type> src-ip <ip> dst-ip <ip> src-port <port> dst-
port <port> action <queue>
Donde:
l <ethX> - el dispositivo Ethernet que programar
l <tipo>: puede ser ip4, tcp4, udp4o biensctp4
l <ip>: la dirección IP que coincida
l <port>: elmero de puerto que coincida
l <queue>: la cola hacia la que se va a dirigir el tfico (-1 descarta el tfico coincidente)
Para eliminar un filtro:
# ethtool -U <ethX> delete <N>
Donde <N> es el ID de filtro que se muestra al imprimir todos los filtros activos, y tambn puede haberse
especificado mediante “loc <N>” al agregar el filtro.
Ejemplos:
Para agregar un filtro que dirija el paquete a la cola 2:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 src-port
2000 dst-port 2001 action 2 [loc 1]
Para establecer un filtro utilizando solo las direcciones IP de origen y de destino:
Instalación y configuración del controlador de Linux*
120
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 action 2
[loc 1]
Para establecer un filtro basado en un patrón y un desplazamiento definidos por el usuario:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 user-def
0x4FFFF action 2 [loc 1]
donde el valor del campo user-def contiene el desplazamiento (4 bytes) y el patn (0xffff).
Para emparejar el tfico TCP enviado desde 192.168.0.1, puerto 5300, dirigido a 192.168.0.5, puerto 80, y enviarlo a la
cola 7:
# ethtool -U enp130s0 flow-type tcp4 src-ip 192.168.0.1 dst-ip 192.168.0.5 src-port
5300 dst-port 80 action 7
Para cada tipo de flujo, todos los filtros programados deben tener el mismo conjunto de entrada coincidente. Por ejemplo, la
emisión de los dos comandos siguientes es aceptable:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.5 src-port 55 action 10
La emisión de los dos pximos comandos, sin embargo, no es aceptable, ya que el primero especifica src-ip y el
segundo especifica dst-ip:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7
# ethtool -U enp130s0 flow-type ip4 dst-ip 192.168.0.5 src-port 55 action 10
El segundo comando falla con un error. Puede programar varios filtros con los mismos campos, utilizando diferentes
valores; pero en un dispositivo, no puede programar dos filtros tcp4 con diferentes campos coincidentes.
El emparejamiento en una subporción de un campo no es compatible con el controlador, por lo que los campos de scara
parcial no se admiten.
Filtros Flex Byte del Director de flujo
El controlador tambn admite la coincidencia de datos definidos por el usuario dentro de la carga de paquetes. Estos datos
flexibles se especifican mediante el campo "definido por el usuario" del comando ethtool de la manera siguiente:
31 28 24 20 16 15 12 8 4 0
Desplazamiento en carga de paquetes 2 bytes de datos flexibles
Por ejemplo,
... user-def 0x4FFFF ...
indica al filtro que busque 4 bytes en la carga y empareje ese valor con 0xFFFF. El desplazamiento se basa en el principio
de la carga, y no el principio del paquete. Por lo tanto:
flow-type tcp4 ... user-def 0x8BEAF ...
emparejaría los paquetes TCP/IPv4 que tienen el valor 0xBEAF de 8 bytes con la carga TCP/IPv4.
Tenga en cuenta que las cabeceras de ICMP se analizan como 4 bytes de cabecera y 4 bytes de carga. Por lo tanto, para
emparejar el primer byte de la carga, en realidad debe agregar 4 bytes al desplazamiento. Tenga en cuenta también que
los filtros ip4 coinciden tanto con las tramas ICMP como con las tramas ip4 raw (desconocido), donde la carga será la carga
L3 de la trama IP4.
El desplazamiento máximo es 64. El hardware solo leerá hasta 64 bytes de datos del paquete. El desplazamiento debe ser
equitativo porque los datos flexibles tienen una longitud de 2 bytes y deben estar alineados con el byte 0 de la carga de
paquetes.
Instalación y configuración del controlador de Linux*
121
El desplazamiento flexible definido por el usuario también se considera parte del conjunto de entrada y no se puede
programar por separado para varios filtros del mismo tipo. Sin embargo, los datos flexibles no forman parte del conjunto de
entrada, y varios filtros pueden utilizar el mismo desplazamiento, pero coincidir con datos diferentes.
Filtros para dirigir el tráfico a una VF específica
Es posible crear filtros que dirijan el tfico a una función virtual específica. Para versiones más antiguas de ethtool, esto
depende del pametro “action(acción). Especifique la acción como un valor de 64 bits, donde los 32 bits inferiores
representan el número de cola y los 8 bits siguientes representan el ID de VF. Tenga en cuenta que 0 es la PF, por lo que el
identificador de la VF está desplazado por 1. Por ejemplo:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 src-port
2000 dst-port 2001 action 0x800000002 [loc 1]
El campo de acción especifica que se dirija el tfico a la función virtual 7 (8 menos 1) en la cola 2 de dicha VF.
Las versiones más recientes de ethtool (versión 4.11 y posteriores) utilizan los pametros “vf” y “queue” (cola) en lugar del
pametro “action” (acción). Tenga en cuenta que con el nuevo pametro “vf” de ethtool no es necesario desplazar el valor
por 1. Este comando es equivalente al ejemplo anterior:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 src-port
2000 dst-port 2001 vf 7 queue 2 [loc 1]
Tenga en cuenta que estos filtros no romperán las reglas de enrutamiento interno, y no enrutan el tfico que de otra
manera no se haba enviado a la VF especificada.
Compatibilidad con el filtro de nube
En una red compleja que admite varios tipos de tfico (por ejemplo, tanto para el almacenamiento como el de la nube), la
compatibilidad con el filtro de nube le permite enviar un tipo de tfico (por ejemplo, el tráfico de almacenamiento) a la
función física (PF) y de otro tipo (por ejemplo, el tráfico de la nube) a una función virtual (VF). Como las redes de nube
normalmente están basadas en VXLAN/GENEVE, puede definir un filtro de nube para identificar los paquetes
VXLAN/GENEVE y enviarlos a una cola en la VF para que los procese la máquina virtual (VM). De forma similar, se pueden
diseñar otros filtros de nube para varios túneles de tfico diferentes.
NOTA:
l Los filtros de nube solo se admiten cuando el dispositivo subyacente está establecido en el modo de función
única por puerto.
l La opción “action -1” (acción -1), que descarta los paquetes coincidentes en filtros normales del Director de
flujo de Ethernet Intel, no está disponible para descartar los paquetes cuando se utiliza con los filtros de
nube.
l En el caso de IPv4 y otros tipos de flujo, los filtros de nube no se pueden utilizar para filtros TCP o UDP.
l Los filtros de nube se pueden usar como un método para implementar la división de colas en la PF.
Los siguientes filtros son compatibles:
l Filtros de nube
l MAC interna, VLAN interna (para paquetes NVGRE, VXLAN o GENEVE)
l MAC interna, VLAN interna, ID de inquilino (para paquetes NVGRE, VXLAN o GENEVE)
l MAC interna, ID de inquilino (paquete NVGRE o paquetes VXLAN/GENEVE)
l Filtro L2 de MAC externa
l Filtro MAC interna
l MAC externa, ID de inquilino, MAC interna
l IP de destino de aplicación
l IP de origen de aplicación, MAC interna
l ToQueue: utilizar MAC, VLAN para señalar a una cola
l Filtros L3
l IP de destino de aplicación
Instalación y configuración del controlador de Linux*
122
Los filtros de nube se especifican mediante la interfaz ntuple de ethtool, pero el controlador utiliza el campo definido por el
usuario para determinar si el filtro se debe tratar como un filtro de nube o un filtro normal. Para habilitar un filtro de nube,
establezca el bit más alto del campo definido por el usuario, "user-def 0x8000000000000000", para habilitar las funciones
de nube descritas a continuación. Esto especifica al controlador que debe tratar el filtro de forma especial y no como los
filtros normales descritos anteriormente. Tenga en cuenta que los filtros de nube tambn leen los otros bits en el campo
definido por el usuario por separado, por lo que no puede utilizar la función de datos flexibles descrita anteriormente.
Para filtros normales del Director de flujo de Ethernet Intel:
l Ningún campo definido por el usuario especificado o bit s alto (bit 63) es 0. Por ejemplo:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 dst-ip 192.168.0.109 action 6 loc
Para filtros L3 (paquetes sin túneles):
l user-def 0x8000000000000000 (no se ha especificado ninn ID/VNI de inquilino en los bits restantes del campo
definido por el usuario)
l Solo se tienen en cuenta los pametros L3 (src-IP, dst-IP)
l Por ejemplo:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.42.13 dst-ip 192.168.42.33 /
src-port 12344 dst-port 12344 user-def 0x8000000000000000 action /
0x200000000 loc 3
Redirija el tfico que proviene de 192.168.42.13 puerto 12344 con destino 192.168.42.33 puerto 12344 en la VF id
1, y llame a esta acción "rule 3" (regla 3)
Para los filtros de nube (paquetes con túneles):
l Todos los des filtros, incluidos aquellos en los que se especifica el ID/VNI de inquilino. Los 32 bits inferiores del
campo definido por el usuario pueden llevar el ID/VNI de inquilino si es necesario.
l La VF se puede especificar con el campo “action” (acción), del mismo modo que los filtros normales descritos en la
sección de filtros del Director de flujo anterior.
l Los filtros de nube pueden definirse con MAC interna, MAC externa, dirección IP interna, VLAN interna y VNI como
parte de la tupla de nube. Los filtros de nube filtran en el destino (no en el origen) para MAC e IP. Los campos de
dirección MAC de destino y origen en el comando ethtool están sobrecargados como la dirección MAC dst =
externa, src = interna para facilitar la definición de tupla para un filtro de nube.
l El pametro “loc” especifica el mero de regla del filtro como almacenado en el controlador base.
l Por ejemplo:
# ethtool -U enp130s0 flow-type ether dst 8b:9d:ed:6a:ce:43 \
src 1d:44:9d:54:da:de user-def 0x8000000000000022 loc 38 \
action 0x200000000
Redirija el tfico en VXLAN con el túnel id 34 (hex 0x22) que proviene de la dirección MAC externa
8b:9d:ed:6a:ce:43 y la dirección MAC interna 1d:44:9d:54:da:de a la VF id 1 y llame a esta acción “rule 38
(regla 38).
Control de flujo
El control de flujo de Ethernet (IEEE 802.3x) se puede configurar con ethtool para habilitar la recepción y transmisión de
tramas de pausa para este controlador. Cuando está habilitada la transmisión, las tramas de pausa se generan cuando el
fer de paquetes de recepción cruza un umbral predefinido. Cuando está habilitada la recepción, la unidad de transmisión
se detend durante el tiempo de retraso especificado cuando se reciba una trama de pausa.
NOTAS:
l Debe contar con un interlocutor de enlace con capacidad para el control de flujo.
l Este controlador requiere control de flujo en el puerto y el interlocutor de enlace. Si el control de flujo está
deshabilitado en uno de los lados, es posible que el puerto parezca detenerse cuando hay mucho tfico.
Utilice ethtool para cambiar los ajustes de control de flujo.
Para habilitar o deshabilitar el control de flujo de Rx o Tx:
Instalación y configuración del controlador de Linux*
123
# ethtool -A <ethX> rx <on|off> tx <on|off>
NOTA: este comando solo habilita o deshabilita el control de flujo si la negociación automática está deshabilitada. Si
la negociación automática está habilitada, este comando cambia los parámetros utilizados para la negociación
automática con el interlocutor de enlace.
Para habilitar o deshabilitar la negociación automática:
# ethtool -s <ethX> autoneg <on|off>
NOTA: la negociación automática del control de flujo forma parte de la negociación autotica del enlace.
Dependiendo de su dispositivo, es posible que no pueda cambiar el ajuste de negociación automática.
Flujo de hash RSS
Le permite establecer los bytes de hash por tipo de flujo y cualquier combinación de una o más opciones para la
configuración de bytes de hash de ajuste de escala en lado de recepción (RSS).
# ethtool -N <ethX> rx-flow-hash <type><option>
Donde <type> es:
tcp4 significa TCP en IPv4
udp4 significa UDP en IPv4
tcp6 significa TCP en IPv6
udp6 significa UDP en IPv6
Y <option> es una opción o más de las siguientes:
s hash en la dirección IP de origen del paquete Rx.
d hash en la dirección IP de destino del paquete Rx.
f hash en bytes 0 y 1 de la cabecera de la capa 4 del paquete Rx.
n hash en bytes 2 y 3 de la cabecera de la capa 4 del paquete Rx.
Colas de dispositivos de aplicación (ADQ)
Las colas de dispositivos de aplicación (ADQ) permiten dedicar una o más colas a una aplicación específica. Esto puede
reducir la latencia de la aplicación especificada y permitir que el tráfico Tx esté limitado por aplicación.
Requisitos:
l Versión del kernel 4.19.58 o posterior
l Se deben cargar los módulos sch_mqprio, act_mirred y cls_flower. Por ejemplo:
# modprobe sch_mqprio
# modprobe act_mirred
# modprove cls_flower
l La última versión de iproute2.
# cd iproute2
# ./configure
# make DESTDIR=/opt/iproute2 install
l Versión de NVM 6.01 o posterior
l ADQ no se puede habilitar cuando estén habilitadas las siguientes funciones: Habilitación de puentes de centro de
datos (DCB), Varias funciones por puerto (MFP) o Filtros Sideband.
l Si otro controlador (por ejemplo, DPDK) tiene establecidos filtros de nube, no se puede habilitar ADQ.
Instalación y configuración del controlador de Linux*
124
Para crear TC en la interfaz:
NOTA: ejecute todos los comandos de TC desde el directorio ../iproute2/tc/.
1. Utilice el comando tc para crear clases de tfico (TC). Puede crear un máximo de 8 TC por interfaz.
# tc qdisc add dev <ethX> root mqprio num_tc <tcs> map <priorities> queues
<count1@offset1 ...> hw 1 mode channel shaper bw_rlimit min_rate <min_rate1 ...>
max_rate <max_rate1 ...>
Donde:
l num_tc <tcs>: elmero de TC que se utilizan.
l map <prioridades>: el mapa de prioridades para las TC. Se pueden asignar hasta 16 prioridades a las TC.
l queues <número1@desplazamiento1 ...>: por cada TC, <número de colas>@<desplazamiento>. Elmero máximo
de colas para todas las TC es elmero decleos.
l hw 1 mode channel: “channel” con “hw” establecido en 1 es un nuevo modo de descarga de hardware en mqprio
que hace un uso completo de las opciones de mqprio, las TC, configuraciones de cola y los pametros de QoS.
l shaper bw_rlimit: para cada TC, establece la velocidad del ancho de bandanima y xima. Los totales deben ser
igual o menores que la velocidad del puerto. Este pametro es opcional y se requiere solo para configurar las tasas
Tx.
l min_rate <velocidad_mín1>: establece el límite de velocidad del ancho de bandanimo de cada TC.
l max_rate <velocidad_máx1 ...>: establece el límite de velocidad del ancho de banda máximo de cada TC. Puede
establecer una velocidadnima y xima a la vez.
NOTA: consulte lagina del manual de mqprio y los ejemplos a continuación para obtener s información.
2. Verifique el límite de ancho de banda con las herramientas de supervisión de redes como ifstat o sar -n DEV [intervalo]
[número de muestras]
NOTA: no se pueden configurar los canales con ethtool (ethtool -L) cuando las TC se configuran mediante mqprio.
3. Habilite descargas de TC de hardware en la interfaz:
# ethtool -K <ethX> hw-tc-offload on
4. Aplique TC al flujo de entrada (Rx) de la interfaz:
# tc qdisc add dev <ethX> ingress
NOTA:
l No se admiten los filtros de túnel en ADQ. Si los paquetes encapsulados llegan en modo no túnel, el filtrado
se ha en las cabeceras interiores. Por ejemplo, para el tfico VXLAN en modo no túnel, si PCTYPE se
identifica como un paquete encapsulado VXLAN, se ignoran las cabeceras exteriores. Por lo tanto, se
emparejan las cabeceras interiores.
l Si un filtro de TC en una PF coincide con el tráfico en una VF (en la PF), ese tfico se dirigi a la cola
apropiada de la PF y no se pasa a la VF. Este tipo de tfico acaba siendo descartado s arriba en la
pila TCP/IP, ya que no coincide con los datos de la dirección de la PF.
l Si el tfico coincide con varios filtros de TC que apuntan a diferentes TC, ese tráfico se duplica y se envia
a todas las colas de TC que coincidan. El conmutador de hardware refleja el paquete a una lista de VSI
cuando coinciden varios filtros.
Ejemplo:
NOTA: consulte las páginas del manual de tc y tc-flower para obtener más información sobre el control de tfico y
los filtros de TC flower.
Para configurar 2 TC (tc0 y tc1), con 16 colas cada uno, prioridades 0-3 para tc0 y 4-7 para tc1 y tasa Tx máxima
establecida en 1 Gbit para tc0 y 3 Gbit para tc1:
Instalación y configuración del controlador de Linux*
125
# tc qdisc add dev ens4f0 root mqprio num_tc 2 map 0 0 0 0 1 1 1 1 queues 16@0 16@16
hw 1 mode channel shaper bw_rlimit max_rate 1Gbit 3Gbit
Donde:
l map 0 0 0 0 1 1 1 1: establece las prioridades 0-3 para usar tc0 y 4-7 para usar tc1
l queues 16@0 16@16: asigna 16 colas a tc0 con desplazamiento 0 y 16 colas a tc1 con desplazamiento 16
Puede agregar múltiples filtros al dispositivo, utilizando la misma rmula (y no requiere recursos de fórmulas adicionales),
bien en la misma interfaz o bien en interfaces diferentes. Cada filtro utiliza los mismos campos para el emparejamiento,
pero pueden tener diferentes valores de coincidencia.
tc filter add dev ethx protocol ip ingress prio 1 flower ip_proto tcp dst_port $app_port skip_sw
hw_tc 1
Por ejemplo:
# tc filter add dev ethx protocol ip ingress prio 1 flower ip_proto tcp dst_port
5555 skip_sw hw_tc 1
EEE (Ethernet de bajo consumo)
Un vínculo entre dos dispositivos compatibles con EEE tend como resultado cargas periódicas de datos seguidas por
periodos en los que el enlace se encontra en estado inactivo. Este estado inactivo de bajo consumo (LPI) es compatible
con velocidades de enlace de 2,5 Gbps y 5 Gbps.
NOTAS:
l La compatibilidad con EEE requiere negociación automática.
l Ambos socios del enlace deben admitir EEE.
l EEE no es compatible con todos los dispositivos de red Ethernet Intel® ni a todas las velocidades de
enlace.
Ejemplo:
# ethtool --show-eee <ethX>
# ethtool --set-eee <ethX> [eee on|off]
Establecer el indicador privado link-down-on-close
Cuando el indicador privado link-down-on-close está establecido en “on” (activado), el enlace del puerto se cae cuando
la interfaz se desactive utilizando el comando ifconfig <ethX> down.
Utilice ethtool para ver y establecer link-down-on-close de la siguiente manera:
# ethtool --show-priv-flags <ethX>
# ethtool --set-priv-flags <ethX> link-down-on-close [on|off]
Tramas Jumbo
La compatibilidad con las tramas Jumbo se activa cambiando la MTU a un valor mayor al valor predeterminado de 1500
bytes. Utilice el comando ifconfig para aumentar el tamaño de la MTU. Por ejemplo, introduzca lo siguiente, donde <ethX>
es elmero de la interfaz:
# ifconfig <ethX> mtu 9000 up
De forma alternativa, puede utilizar el comando ip de la siguiente manera:
# ip link set mtu 9000 dev <ethX>
# ip link set up dev <ethX>
Instalación y configuración del controlador de Linux*
126
Esta configuración no se guarda entre reinicios. El cambio de configuración se puede hacer permanente agregando “MTU
= 9000” al siguiente archivo:
l /etc/sysconfig/network-scripts/ifcfg-<ethX> para RHEL
l /etc/sysconfig/network/<archivo_config> para SLES
NOTAS:
l El valor ximo para la configuración de MTU para las tramas Jumbo es 9710 bytes. Este valor coincide con
el tamaño máximo de las tramas Jumbo de 9728 bytes.
l Este controlador intentará utilizar varios búferes de tamaño degina para recibir cada paquete Jumbo. Se
estima que esto ayuda a evitar los problemas de escasez defer al asignar los paquetes de recepción.
l Lardida de paquetes puede tener un mayor impacto en el rendimiento cuando se utilizan tramas Jumbo.
Si observa una caída en el rendimiento después de activar las tramas Jumbo, la activación del control de flujo
puede mitigar el problema.
Configuración de la velocidad y el dúplex
Al abordar los problemas de configuración de velocidad y plex, es necesario distinguir entre los adaptadores basados en
cobre y los adaptadores basados en fibra.
En el modo predeterminado, un adaptador de red Ethernet Intel® que utilice conexiones de cobre intenta realizar la
negociación automática con su interlocutor de enlace para determinar la mejor configuración. Si no se establece un enlace
con el interlocutor de enlace mediante la negociación automática, puede que sea necesario poner el adaptador y el
interlocutor del enlace en la misma configuración manualmente, a fin de establecer el enlace y pasar paquetes. Esto se
necesario únicamente cuando se intente establecer el enlace con un conmutador antiguo que no admite la negociación
automática o uno que ha sido forzado a una velocidad o modo dúplex específicos. Su interlocutor de enlace debe coincidir
con el valor establecido. No se pueden forzar las velocidades de 1 Gbps o más. Utilice la configuración de anuncios de
negociación automática para configurar manualmente los dispositivos para 1 Gbps y velocidades superiores.
Los anuncios de velocidad, plex y negociación automática se configuran mediante la utilidad ethtool. ethtool está
incluida en todas las versiones de Red Hat posteriores a Red Hat 7.2. Para ver las configuraciones de velocidad
compatibles con su dispositivo, ejecute lo siguiente:
# ethtool <ethX>
ADVERTENCIA: solamente los administradores de red experimentados deberían forzar manualmente la velocidad
y el modo dúplex o cambiar los anuncios de negociación automática. La configuración del conmutador siempre
debe coincidir con la del adaptador. Puede verse afectado el rendimiento del adaptador o éste podría dejar de
funcionar si lo configura de manera distinta al conmutador.
NOTA: no puede establecer la velocidad para dispositivos basados en el adaptador de red Ethernet Intel® XXV710.
NAPI
Este controlador es compatible con NAPI (modo de sondeo Rx). Para obtener más información sobre NAPI, consulte
https://wiki.linuxfoundation.org/networking/napi.
Reloj de hardware del protocolo de tiempo de precisión (PHC) IEEE 1588
El protocolo de tiempo de precisión (PTP) se utiliza para sincronizar los relojes en una red informática. El PTP varía en
función de los dispositivos de Intel que admite este controlador. Utilice “ethtool -T <ethX>” para obtener una lista definitiva
de las capacidades de PTP que admite el dispositivo.
Descargas sin estado de túnel/superposición
Los túneles y superposiciones compatibles incluyen VXLAN, GENEVE y otros, dependiendo de la configuración de
hardware y software. Las descargas sin estado están habilitadas de forma predeterminada.
Para ver el estado actual de todas las descargas:
Instalación y configuración del controlador de Linux*
127
# ethtool -k <ethX>
Habilitación de puentes de centro de datos (DCB)
Nota: El kernel asume que TC0 está disponible y deshabilita el control de flujo de prioridad (PFC) en el dispositivo si TC0
no está disponible. Para solucionar este problema, aserese de que TC0 se ha habilitado al configurar DCB en el
conmutador.
DCB es una implementación de calidad de servicio de configuración en el hardware. Utiliza la etiqueta de prioridad VLAN
(802.1p) para filtrar el tfico. Esto significa que hay 8 prioridades diferentes con las que se puede filtrar el tfico. También
permite un control de flujo prioritario (802.1Qbb) que puede limitar o eliminar la pérdida de paquetes durante los momentos
de mayor uso de la red. Se puede asignar un ancho de banda a cada una de estas prioridades, que se aplica en el nivel de
hardware (802.1Qaz).
El firmware del adaptador implementa los agentes de los protocolos LLDP y DCBX de acuerdo con 802.1AB y 802.1Qaz,
respectivamente. Potencialmente, hay dos modos DCBX en Linux, dependiendo del dispositivo subyacente de la PF:
l Los adaptadores de controladora de Ethernet Intel serie 700 solo admiten el modo del DCBX del firmware. No
admiten el DCBX del software.
Los pametros de DCB se pueden establecer mediante un agente LLDP/DCBX del firmware. Solo puede haber un agente
LLDP/DCBX activo en una sola interfaz a la vez. Cuando el agente DCBX de firmware está activo, los agentes de software
no podn recibir ni transmitir tramas LLDP.
Consulte la subsección “FW-LLDP (protocolo de descubrimiento de la capa de enlace)” de este controlador para conocer
los comandos de ethtool para consultar el estado del agente LLDP/DCBX del firmware.
Cuando funciona en el modo del DCBX del firmware, el adaptador está en un estado “siempre dispuesto”. Los ajustes del
DCB se aplican en el adaptador mediante la transmisión de una configuración de no dispuesto desde el interlocutor de
enlace. Habitualmente, esto es un conmutador. Para configurar los parámetros de DCBX en un conmutador, consulte la
documentación del fabricante del conmutador.
NOTA:
Adaptadores de controladora de Ethernet Intel serie 700:
l Puede deshabilitar el agente de firmware mediante los indicadores privados de ethtool. Para que DCB sea
operativo, se necesita el agente LLDP del firmware.
l No se permite la configuración mediante software de los parámetros de DCBX a través de dcbtool/lldptool.
l El controlador implementa la capa de interfaz netlink DCB para permitir que el espacio de usuario se
comunique con el controlador y consulte la configuración DCB para el puerto.
FW-LLDP (Firmware-Protocolo de detección de capa de enlace)
Utilice ethtool para cambiar los ajustes de FW-LLDP. La configuración de FW-LLDP es por puerto y persiste entre
arranques.
Para habilitar LLDP:
# ethtool --set-priv-flags <ethX> disable-fw-lldp off
Para deshabilitar LLDP:
# ethtool --set-priv-flags <ethX> disable-fw-lldp on
Para comprobar el ajuste de LLDP actual:
# ethtool --show-priv-flags <ethX>
NOTA: debe activar el atributo “LLDP Agent” de UEFI HII para aplicar esta configuración. Si la opción "LLDP AGENT"
está desactivada, no podrá activarla desde el sistema operativo.
Instalación y configuración del controlador de Linux*
128
Corrección de errores de reenvío (FEC)
Le permite establecer el modo de corrección de errores hacia delante o Forward Error Correction (FEC). FEC mejora la
estabilidad de los enlaces, pero aumenta la latencia. Muchas ópticas de alta calidad, cables de conexión directa y canales
de placa posterior proporcionan un enlace estable sin FEC.
NOTA: para que los dispositivos puedan beneficiarse de esta característica, los socios del enlace deben tener FEC
habilitado.
En kernels anteriores a 4.14, utilice los siguientes indicadores privados para deshabilitar los modos de FEC:
l rs-fec (0 para deshabilitar, 1 para habilitar)
l base-r-fec (0 para deshabilitar, 1 para habilitar)
En kernels 4.14 o posteriores, utilice ethtool para obtener/establecer los siguientes modos de FEC:
l Sin FEC
l FEC autotico
l BASE-R FEC
l RS FEC
Personalización dinámica de dispositivos
La personalización dimica de dispositivos (DDP) permite cambiar el canal de procesamiento de paquetes de un
dispositivo aplicando un paquete de perfiles al dispositivo en el tiempo de ejecución. Los perfiles se pueden usar, por
ejemplo, para agregar compatibilidad con nuevos protocolos, cambiar protocolos existentes o cambiar los ajustes
predeterminados. Los perfiles DDP tambn pueden revertirse sin necesidad de reiniciar el sistema.
Requisitos:
l Adaptador de red Ethernet Intel X710/XXV710/XL710
l Firmware 6.0 o posterior
l RHEL 7.5 o posterior o Linux kernel 4.0.1 o posterior
Para aplicar un perfil, primero cópielo en el directorio intel/i40e/ddp correspondiente a la carpeta raíz de su firmware
(normalmente /lib/firmware o /lib/firmware/updates).
Por ejemplo:
/lib/firmware/intel/i40e/ddp
A continuación, utilice la etiqueta de ethtool -f|--flash con la región 100:
# ethtool -f <ethX> <nombre del perfil> 100
Por ejemplo:
# ethtool -f eth0 gtp.pkgo 100
Puede revertir a un perfil previamente cargado usando “-” en lugar del nombre del perfil:
# ethtool -f <ethX> - 100
Por ejemplo:
# ethtool -f eth0 - 100
En todas las solicitudes de reversión, se elimina un perfil, en un orden del último al primero (LIFO).
NOTA:
l Los perfiles de DDP solo se cargan en la interfaz correspondiente a la primera función física del dispositivo
(PF0), pero la configuración se aplica a todos los puertos del adaptador.
l Los perfiles de DDP no son persistentes. Un reinicio del sistema restablece la configuración
predeterminada del dispositivo.
l Los perfiles de DDP NO se descargan automáticamente cuando el controlador se desvincula/descarga.
Tenga en cuenta que la recarga posterior del controlador puede corromper la configuración del perfil durante
Instalación y configuración del controlador de Linux*
129
su inicialización y NO se recomienda.
l Los perfiles de DDP se deben revertir manualmente antes de la descarga/desvinculación del controlador si la
intención es comenzar con una configuración del hardware limpia.
l Actúe con precaución cuando cargue perfiles de DDP. Intentar cargar archivos que no sean perfiles de DDP
proporcionados por Intel puede causar inestabilidad, fallos o bloqueos del sistema.
Puede encontrar más información sobre la personalización dinámica de dispositivos en el sitio web de Intel Developer
Zone:
https://software.intel.com/en-us/articles/dynamic-device-personalization-for-intel-ethernet-700-series
Interfaz de gestión de hipervisores de SR-IOV
La siguiente estructura de archivos sysfs es compatible con la interfaz de gestión de hipervisores de SR-IOV.
/sys/class/net/<ethX>/device/sriov (consulte 1 a continuación)
+-- [VF-id, 0 .. 255] (consulte 2 a continuación)
| +-- trunk
| +-- vlan_mirror
| +-- egress_mirror
| +-- ingress_mirror
| +-- mac_anti_spoof
| +-- vlan_anti_spoof
| +-- loopback
| +-- mac
| +-- mac_list
| +-- promisc
| +-- vlan_strip
| +-- stats
| +-- link_state
| +-- max_tx_rate
| +-- min_tx_rate
| +-- spoofcheck
| +-- trust
| +-- vlan
NOTAS:
1. El kobject iniciado desde “sriov” no está disponible desde el sysfs del kernel existente y requiere que el
controlador del dispositivo implemente esta interfaz.
2. El número máximo de instancias de SR-IOV es 256. El número real de instancias creadas depende del valor
establecido para /sys/bus/devices/<dirección pci del dispositivo>/sriov_numvfs
Funciones de los hipervisores de SR-IOV:
l trunk
l Admite dos operaciones:
l add: agrega una o más ID de VLAN en el filtrado de VLAN de VF.
l rem: retira ID de VLAN de la lista de filtrado de VLAN de VF.
Instalación y configuración del controlador de Linux*
130
l Ejemplo 1: agregar varias etiquetas de VLAN, VLAN 2, 4, 5, 10-20, por PF, p1p2, en una VF seleccionada, 1,
para el filtrado, con compatibilidad de sysfs:
# echo add 2,4,5,10-20 > /sys/class/net/p1p2/device/sriov/1/trunk
l Ejemplo 2: retirar VLAN 5, 11-13 de la PF p1p2 VF 1 con sysfs:
# echo rem 5,11-13 > /sys/class/net/p1p2/device/sriov/1/trunk
l Nota: en rem, si la ID de VLAN no está en la lista de filtrado de VLAN, la ID de VLAN será ignorada.
l vlan_mirror
l Admite la duplicación del tfico de entrada y de salida.
l Ejemplo 1: duplicar el tráfico basado en las VLAN 2, 4, 6, 18-22 a la VF 3 de la PF p1p1.
# echo add 2,4,6,18-22 > /sys/class/net/p1p1/device/sriov/3/vlan_mirror
l Ejemplo 2: retirar VLAN 4, 15-17 de la duplicación de tfico en el destino VF 3.
# echo rem 15-17 > /sys/class/net/p1p1/device/sriov/3/vlan_mirror
l Ejemplo 3: retirar todas las VLAN de la duplicación en la VF 3.
# echo rem 0 - 4095> /sys/class/net/p1p1/device/sriov/3/vlan_mirror
l egress_mirror
l Admite la duplicación del tfico de salida.
l Ejemplo 1: agregar duplicación del tfico de salida en la PF p1p2 VF 1 a VF 7.
# echo add 7 > /sys/class/net/p1p2/device/sriov/1/egress_mirror
l Ejemplo 2: retirar duplicación del tráfico de salida en la PF p1p2 VF 1 a VF 7.
# echo rem 7 > /sys/class/net/p1p2/device/sriov/1/egress_mirror
l ingress_mirror
l Admite la duplicación del tfico de entrada.
l Ejemplo 1: duplicar tfico de entrada en la PF p1p2 VF 1 a VF 7.
# echo add 7 > /sys/class/net/p1p2/device/sriov/1/ingress_mirror
l Ejemplo 2: mostrar la configuración actual de duplicación de entrada.
# cat /sys/class/net/p1p2/device/sriov/1/ingress_mirror
l mac_anti_spoof
l Admite la habilitación/deshabilitación de la antisuplantación de MAC. Permite a las VF transmitir paquetes
con cualquier MAC de SRC, lo que es necesario para algunas aplicaciones L2, acomo para la vinculación
de vNIC dentro de las VM si se establece en OFF.
l Ejemplo 1: habilitar la antisuplantación de MAC para la PF p2p1 VF 1.
# echo ON /sys/class/net/p1p2/device/sriov/1/mac_anti_spoof
l Ejemplo 2: deshabilitar la antisuplantación de MAC para la PF p2p1 VF 1.
# echo OFF /sys/class/net/p1p2/device/sriov/1/mac_anti_spoof
l vlan_anti_spoof
l Admite la habilitación/deshabilitación de la antisuplantación de VLAN. Permite que las VF transmitan
paquetes solo con la etiqueta de VLAN especificada en la configuración “trunk”. Ades, no permitirá
transmitir paquetes “no etiquetados” si se establece en ON. La infracción tiene que incrementar el contador
de estadísticas tx_spoof.
l Ejemplo 1: habilitar la antisuplantación de VLAN para la PF p2p1 VF 1.
# echo ON /sys/class/net/p1p2/device/sriov/1/vlan_anti_spoof
l Ejemplo 2: deshabilitar la antisuplantación de VLAN para la PF p2p1 VF 1.
# echo OFF /sys/class/net/p1p2/device/sriov/1/vlan_anti_spoof
l loopback
l Admite la habilitación/deshabilitación de VEB/VEPA (bucle de retorno local).
l Ejemplo 1: permitir el intercambio de tráfico entre VF de la misma PF.
# echo ON > /sys/class/net/p1p2/device/sriov/loopback
l Ejemplo 2: enviar tfico de horquilla al conmutador al que está conectada la PF.
# echo OFF > /sys/class/net/p1p2/device/sriov/loopback
l Ejemplo 3: mostrar la configuración del bucle de retorno.
# cat /sys/class/net/p1p2/device/sriov/loopback
l mac
l Admite la configuración de la dirección MAC predeterminada. Si la dirección MAC se establece mediante
este comando, la PF no permiti a la VF cambiarla mediante una solicitud de MBOX.
l Ejemplo 1: configurar la dirección MAC predeterminada en VF 1.
Instalación y configuración del controlador de Linux*
131
# echo "00:11:22:33:44:55" > /sys/class/net/p1p2/device/sriov/1/mac
l Ejemplo 2: mostrar la dirección MAC predeterminada.
# cat /sys/class/net/p1p2/device/sriov/1/mac
l mac_list
l Admite la agregación de MAC adicionales a la VF. La dirección MAC predeterminada se obtiene de “ip link
set p1p2 vf 1 mac 00:11:22:33:44:55” si está configurado. En caso contrario, el NIC asigna una dirección
aleatoria a la VF. Si la dirección MAC se configura con el comando IP LINK, la VF no puede cambiarla
mediante solicitudes de MBOX/AdminQ.
l Ejemplo 1: agregar la mac 00:11:22:33:44:55 and 00:66:55:44:33:22 a la PF p1p2 VF 1.
# echo add "00:11:22:33:44:55,00:66:55:44:33:22" >
/sys/class/net/p1p2/device/sriov/1/mac_list
l Ejemplo 2: eliminar la mac 00:11:22:33:44:55 del dispositivo VF anterior.
# echo rem 00:11:22:33:44:55 > /sys/class/net/p1p2/device/sriov/1/mac_list
l Ejemplo 3: mostrar una lista de direcciones MAC de la VF.
# cat /sys/class/net/p1p2/device/sriov/1/mac_list
l promisc
l Admite la activación/desactivación del modo promiscuo de unidifusión y del modo promiscuo de
multidifusión del dispositivo VF.
l Ejemplo 1: activar el modo promiscuo de multidifusión en la PF p1p2 VF 1.
# echo add mcast > /sys/class/net/p1p2/device/sriov/1/promisc
l Ejemplo 2: activar el modo promiscuo de unidifusión en la PF p1p2 VF 1.
# echo add ucast > /sys/class/net/p1p2/device/sriov/1/promisc
l Ejemplo 3: desactivar el modo promiscuo de multidifusión en la PF p1p2 VF 1.
# echo rem mcast > /sys/class/net/p1p2/device/sriov/1/promisc
l Ejemplo 4: mostrar configuración actual del modo promiscuo.
# cat /sys/class/net/p1p2/device/sriov/1/promisc
l vlan_strip
l Admite la habilitación/deshabilitación de la eliminación de VLAN externa del dispositivo de VF.
l Ejemplo 1: habilitar la eliminación de VLAN en la VF 3.
# echo ON > /sys/class/net/p1p1/device/sriov/3/vlan_strip
l Ejemplo 2: deshabilitar la eliminación de VLAN en la VF 3.
# echo OFF > /sys/class/net/p1p1/device/sriov/3/vlan_strip
l stats
l Admite la obtención de estadísticas de VF.
l Ejemplo 1: mostrar estadísticas de VF 1.
# cat /sys/class/net/p1p2/device/sriov/1/stats
l link_state
l Establece/muestra el estado del enlace.
l Ejemplo 1: mostrar estado del enlace en la velocidad de enlace.
# cat /sys/class/net/p1p2/device/sriov/1/link_state
l Ejemplo 2: establecer VF 1 para realizar el seguimiento del estado del enlace de la PF.
# echo auto > /sys/class/net/p1p2/device/sriov/1/link_state
l Ejemplo 3: deshabilitar VF 1.
# echo disable > /sys/class/net/p1p2/device/sriov/1/link_state
Optimizacn del rendimiento
Los valores por defecto de los controladores se adaptan a una amplia variedad de cargas de trabajo. Si se requiere una
mayor optimización, recomendamos experimentar con la siguiente configuración.
Tamaños de trama pequos
Para un mejor rendimiento a la hora de procesar tamaños de trama pequeños (64 B):
Instalación y configuración del controlador de Linux*
132
1. Trate de habilitar la tecnología Hyper-threading en el BIOS con el fin de incrementar elmero decleos lógicos
del sistema.
2. Incremente elmero de colas disponibles para el adaptador:
# ethtool -L
Alineación de IRQ con colas de adaptador
Asigne los IRQ del adaptador a núcleos específicos deshabilitando el servicio irpbalance y utilizando la secuencia de
comandos set_irq_affinity incluida. Consulte el texto de ayuda de la secuencia de comandos para ver más opciones.
La siguiente configuración distribuirá los IRQ en todos los núcleos uniformemente:
# scripts/set_irq_affinity -X all <interfaz1> , [ <interfaz2>, ... ]
La siguiente configuración distribuirá los IRQ en todos los núcleos que son locales del adaptador (el mismo nodo NUMA):
# scripts/set_irq_affinity -X local <interfaz1> ,[ <interfaz2>, ... ]
Para cargas de trabajo intensivas de la CPU, recomendamos asignar los IRQ a todos los núcleos.
Tamaño del anillo de descriptores Rx
Con el fin de reducir elmero de descartes de paquetes Rx, deberá incrementar elmero de descriptores Rx de cada
anillo Rx mediante ethtool.
Compruebe si la interfaz está perdiendo paquetes Rx debido a que los búferes están llenos (rx_dropped.nic significa que
no hay ancho de banda de PCIe):
# ethtool -S <interfaz> | grep "rx_dropped"
Incremente elmero de descriptores Rx de cada anillo Rx mediante ethtool. Esto podría ayudar a reducir las pérdidas de
paquetes Rx a costa de los recursos del sistema:
# ethtool -G <interfaz> rx N
Donde N es elmero deseado de anillos
Limitación de la tasa de interrupción
Este controlador es compatible con un mecanismo de tasa de interrupción adaptativa optimizado para cargas de trabajo
generales. El usuario puede personalizar el control de la tasa de interrupción para cargas de trabajo espeficas, mediante
ethtool, ajustando elmero de microsegundos entre interrupciones.
Para configurar manualmente la tasa de interrupción, debe deshabilitar el modo adaptativo:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off
Para una menor utilizacn de la CPU:
1. Desactive la ITR adaptativa y reduzca las interrupciones de Rx y Tx. Los siguientes ejemplos afectan a todas las
colas de la interfaz especificada.
2. La configuración de rx-usecs y tx-usecs en 125 limitará las interrupciones a unas 8000 por segundo y cola:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off rx-usecs 125 tx-usecs 125
Para una menor latencia:
Desactive la ITR adaptativa y la ITR mediante el ajuste de rx-usecs y tx-usecs en 0 a tras de ethtool:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off rx-usecs 0 tx-usecs 0
Instalación y configuración del controlador de Linux*
133
Problemas conocidos
Mensajes de error inesperados del i40iw en dmesg
Si instala los nuevos controladores i40e sobre los controladores de su distribución de Linux, puede ver mensajes de error
de i40iw en dmesg. Esto se debe a que los controladores i40iw deben actualizarse al mismo tiempo que los i40e. Estos
mensajes pueden ignorarse si no utiliza iWARP en su configuración.
La vinculación de Linux falla con las funciones virtuales vinculadas a un dispositivo
basado en la controladora de Ethernet Intel® serie 700
Si vincula funciones virtuales (VF) a un dispositivo basado en la controladora de Ethernet Intel® serie 700, los
subordinados de la VF pueden fallar cuando se convierten en el subordinado activo. Si la dirección MAC de la VF está
configurada por la PF (función física) del dispositivo, cuando se agrega un subordinado, o se cambia el subordinado de
respaldo activo, la vinculación de Linux intenta sincronizar la dirección MAC del subordinado de respaldo con la misma
dirección MAC del subordinado activo. La vinculación de Linux falla en este punto. El problema no se produci si la
dirección MAC de la VF no está configurada por la PF.
Los dispositivos X710/XXV710 no pueden habilitar las VF MAX cuando NPAR y SR-IOV
están habilitadas
Los dispositivos X710/XXV710 no pueden habilitar las VF Max (64) cuando NPAR y SR-IOV están habilitadas. Se registra
un error del controlador i40e que indica "add vsi failed for VF N, aq_err 16" (error al agregar vsi para VF N, aq_err 16). Para
solucionar este problema, habilite menos de 64 funciones virtuales (VF).
El comando "ip link show" (mostrar enlace ip) muestra la MAC de VF incorrecta si la
MAC de VF se ha establecido desde la VF
Ejecutar el comando "ip link show" (mostrar enlace ip) solo muestra las direcciones MAC si las ha establecido la PF. De lo
contrario, muestra todo como ceros.
Comportamiento previsto. El controlador de la PF está transmitiendo ceros al controlador de la VF, que puede generar su
propia dirección MAC aleatoria e indicarla al SO invitado. Sin esta función, algunos sistemas operativos invitados asignan
incorrectamente a la VF un nombre de interfaz nuevo cada vez que se reinicien.
La descarga de la suma de comprobación IPv6/UDP no funciona en algunos kernel más
antiguos
Algunas distribuciones con kernels más antiguos no habilitan correctamente la descarga de la suma de comprobación
IPv6/UDP. Para utilizar la descarga de la suma de comprobación IPv6, puede que sea necesario actualizar a un kernel
nuevo.
Se muestran mensajes de advertencia depmod sobre símbolos desconocidos durante la
instalación
Durante la instalación del controlador, puede que visualice mensajes de advertencia depmod relacionados con los
símbolos desconocidos i40e_register_client e i40e_unregister_client. Estos mensajes se muestran solo a título informativo;
no se requiere ninguna acción por parte del usuario. La instalación debería completarse correctamente.
Instalación y configuración del controlador de Linux*
134
Error: <ifname> selects TX queue XX but real number of TX queues is YY (<ifname> selec-
ciona TX cola XX, pero el número real de las colas TX es YY)
Cuando se configura elmero de colas con una pesada carga de tráfico, puede que visualice un mensaje de error que
indica "<ifname> selects TX queue XX, but real number of TX queues is YY" (<ifname> selecciona TX cola XX, pero el
mero real de las colas TX es YY). Este mensaje es meramente informativo y no afecta a la funcionalidad.
Solución de problemas de rendimiento al utilizar IOMMU en entornos virtualizados
La función IOMMU del procesador evita que los dispositivos de E/S accedan a la memoria fuera de los límites establecidos
por el SO. También permite que los dispositivos se asignen directamente a una quina virtual. Sin embargo, la función
IOMMU puede afectar al rendimiento, tanto en la latencia (cada acceso a DMA por parte del dispositivo debe ser traducido
por la IOMMU) como en la utilización de la CPU (cada búfer asignado a cada dispositivo debe asignarse en la IOMMU).
Si experimenta problemas de rendimiento importantes con la función IOMMU, intente usarla en modo "passthrough"
adiendo la siguiente línea de comandos de arranque del kernel:
intel_iommu=on iommu=pt
NOTA: este modo permite la reasignación para asignar dispositivos a las VM y proporcionar aun rendimiento de
E/S casi nativo, pero no proporciona la protección de memoria adicional.
La transmisión se bloquea y no permite ningún tráfico
La deshabilitación del control de flujo mientras el dispositivo está en condiciones de mucha exigencia puede causar
bloqueos de la transmisión y, finalmente, el hecho de que el dispositivo deje de transmitir el tfico. Debe reiniciar el
sistema para solucionar este problema.
Mensajes incompletos en el registro del sistema
La utilidad NVMUpdate puede escribir varios mensajes incompletos en el registro del sistema.
Estos mensajes se muestran de la forma siguiente:
in the driver Pci Ex config function byte index 114
in the driver Pci Ex config function byte index 115
Estos mensajes se pueden ignorar.
El contador de la suma de comprobación incorrecta aumenta de forma errónea al utilizar
VxLAN
Al transmitir tfico no UDP a través de una interfaz VxLAN, el contador port.rx_csum_bad aumenta para los paquetes.
Los contadores de estadísticas se restablecen cuando se cambia el modo promiscuo
El cambio del modo promiscuo desencadena un restablecimiento del controlador de la función física. Esto restablece los
contadores de estadísticas.
La máquina virtual no obtiene el enlace
Si la máquina virtual tiene más de un puerto virtual asignado, y esos puertos virtuales están vinculados a diferentes puertos
sicos, puede que no obtenga el enlace en todos los puertos virtuales. El comando siguiente puede solucionar el problema:
# ethtool -r <ethX>
Donde <ethX> es la interfaz de PF en el host, por ejemplo: p5p1. Puede que necesite ejecutar el comando más de una vez
para obtener enlace en todos los puertos virtuales.
Instalación y configuración del controlador de Linux*
135
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza una
dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el controlador de la
VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática sobrevivi a una recarga del
controlador de la VF.
El cambio del mero de colas Rx o Tx con ethtool -L puede causar nico del kernel
El cambio delmero de colas Rx o Tx con ethtool -L mientras el tráfico fluye y la interfaz está activa puede causar pánico
del kernel. Deshabilite primero la interfaz para evitar el problema. Por ejemplo:
# ip link set <ethX> down
# ethtool -L <ethX> combined 4
La adición de una regla de Sideband del Director de flujo de Ethernet Intel falla inco-
rrectamente
Si intenta agregar una regla del Director de flujo de Ethernet Intel cuando no hay más espacio de regla Sideband
disponible, el controlador registra un error que indica que la regla no se ha podido agregar, pero ethtool devuelve que la
acción se ha realizado correctamente. Puede quitar reglas para liberar espacio. Además, elimine la regla que ha fallado.
Esto la expulsa de la caché del controlador.
La lógica Sideband del Director de flujo de Ethernet Intel agrega un filtro duplicado
Lagica Sideband del Director de flujo de Ethernet Intel agrega un filtro duplicado en la lista de filtros de software si la
ubicación no se ha especificado, o se ha especificado pero difiere de la ubicación anterior pese a tener los mismos criterios
de filtro. En este caso, el segundo de los filtros que aparecen es el válido en hardware y decide la acción del filtro.
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
# echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda entre reinicios. El cambio de configuración puede hacerse permanente si
agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores diferentes o
en un conmutador con particiones para VLAN).
Problema de paquete perdido en la prueba de presión de UDP
Bajo la presión de UDP de paquetes pequeños con el controlador i40e, es posible que el sistema pierda paquetes UDP
debido a que los búferes de calo están llenos. La configuración de las variables de control de flujo alnimo puede
solucionar el problema. Tambn puede intentar aumentar los tamaños de búfer predeterminados del kernel cambiando los
valores en /proc/sys/net/core/rmem_default y rmem_max.
Instalación y configuración del controlador de Linux*
136
Desconexión del cable de red mientras se ejecuta ethtool -p
En las versiones del kernel 2.6.32 y posteriores, la desconexión del cable de red mientras se ejecuta ethtool -p ha que el
sistema no responda a los comandos emitidos con el teclado, con la excepción de Control-Alt-Supr. Aparentemente la
única solución consiste en reiniciar el sistema.
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores. Estos errores son provocados por la forma
en que el kernel de Linux informa estas condiciones de mucha exigencia.
Rendimiento inferior al esperado
Algunas ranuras PCIe x8 están configuradas en realidad como ranuras x4. Estas ranuras tienen un ancho de banda
insuficiente para la velocidad de línea entera con dispositivos de dos puertos y cuatro puertos. Además, si coloca un
adaptador preparado para PCIe v4.0 o 3.0 en una ranura PCIe v2.x, no obtend el ancho de banda completo. El
controlador detecta esta situación y escribe uno de los siguientes mensajes en el registro del sistema:
"PCI Express bandwidth available for this card is not sufficient for optimal performance. (El ancho de banda disponible de
PCI Express para esta tarjeta no es suficiente para obtener un rendimiento óptimo.) For optimal performance a x8 PCI
Express slot is required. (Para conseguir un rendimiento óptimo es necesaria una ranura x8 PCI Express.)"
o bien
“PCI-Express bandwidth available for this device may be insufficient for optimal performance. Please move the device to a
different PCI-e link with more lanes and/or higher transfer rate”.
Si se produce este error, trasladar el adaptador a una ranura PCIe v3.0 x8 verdadera solucionará el problema.
ethtool puede mostrar el módulo de fibra SFP+ incorrectamente como cable de conexión
directa
Debido a las limitaciones de kernel, el tipo de puerto solo se puede visualizar correctamente en el kernel 2.6.33 o superior.
La ejecución del comando ethtool -t ethX causa una interrupción entre la PF y el cliente
de prueba
Cuando hay VF activas, "ethtool -t" realiza un diagnóstico completo. Durante el proceso, este se restablece
automáticamente, acomo todas las VF conectadas. Los controladores de la VF detectan una interrupción, pero pueden
recuperarse.
No se puede obtener concesión DHCP en el inicio con RedHat
En el caso de configuraciones donde el proceso de negociación automática tarde s de 5 segundos, el script de inicio
puede fallar con el siguiente mensaje:
"ethX: failed. No link present. Check cable?"
Este error puede producirse aunque la presencia del enlace pueda confirmarse mediante ethtool ethx. En este caso, intente
establecer "LINKDELAY=30" en /etc/sysconfig/network-scripts/ifdfg-ethx.
El mismo problema puede producirse durante un arranque de red (a tras de PXE) en distribuciones RedHat que utilizan
el script dracut:
"Warning: No carrier detected on interface <interface_name>" (Advertencia: No se ha detectado ningún dispositivo portador
en la interfaz <interface_name>)
En este caso, agregue "rd.net.timeout.carrier=30" en la línea de comandos del kernel.
Instalación y configuración del controlador de Linux*
137
NOTA: el tiempo de enlace puede variar. Ajuste el valor LINKDELAY de la forma
correspondiente.
Otra alternativa consiste en utilizar NetworkManager para configurar las interfaces, con lo que se evita el tiempo de espera
establecido. Consulte las instrucciones de configuración de NetworkManager en la documentación proporcionada por su
distribución.
La carga del controlador i40e en los kernels 3.2.x y posteriores muestra el mensaje de
kernel contaminado
Debido a cambios recientes en el kernel, la carga de un controlador de fuera del árbol hace que el kernel se contamine.
Las funciones virtuales de SR-IOV tienen direcciones MAC idénticas en RHEL8
Cuando se crean varias funciones virtuales de SR-IOV en Red Hat Enterprise Linux 8, las VF pueden tener direcciones
MAC idénticas. Solo una VF pasa el tráfico; el resto de tráfico de otras VF con direcciones MAC idénticas fallará. Esto está
relacionado con la opción “MACAddressPolicy=persistent” en /usr/lib/systemd/network/99-default.link.
Para solucionar este problema, edite el archivo /usr/lib/systemd/network/99-default.link y cambie la línea MACAddressPolicy
a “MACAddressPolicy=none”. Consulte la documentación de systemd para obtener más información.
Mensaje de error “VF X failed opcode 24” de dmesg en el host
Con una quina invitada de Microsoft Windows Server 2019 que se ejecuta en un host de Linux, puede que visualice un
mensaje de error “VF <número_vf> failed opcode 24de dmesg en el host. Este error es benigno y no afecta al tfico.
Instalar el controlador iavf s reciente en el invitado resolve el problema.
Puede que los SO Windows invitados en un host de Linux no pasen el tráfico a través de
las VLAN
La VF no está al tanto de la configuración de VLAN si utiliza equilibrio de carga y migración tras error (LBFO) para
configurar las VLAN en un invitado de Windows. Las VLAN configuradas mediante LBFO en un controlador de VF podrían
generar errores a la hora de transmitir el tfico.
Instalación y configuración del controlador de Linux*
138
Controlador ice de Linux para la controladora de Ethernet Intel
serie 800
Introducción a ice
NOTA: los dispositivos basados en la controladora de Ethernet Intel® serie 800 pueden presentar un rendimiento
de recepción deficiente y paquetes perdidos. Los siguientes pasos pueden mejorar la situación:
1. En la configuración de la BIOS/UEFI de su sistema, seleccione el perfil “Performance” (Rendimiento).
2. En RHEL 7.x/8.x, utilice la herramienta de gestión de energía ajustada para establecer el perfil latency-
performance(Latencia-rendimiento).
3. En otros sistemas operativos y entornos, utilice la herramienta equivalente para establecer el perfil
equivalente.
NOTA: no descargue el controlador de un puerto si una función virtual (VF) con una quina virtual (VM) activa está
vinculada a él. Esto ha que el puerto parezca que se bloquea. Una vez que la máquina virtual se apaga, o bien
libera la VF de cualquier otra manera, el comando se completará.
NOTA: en un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-IOV, es
posible que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las tramas de
dos capas generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de flujo
basado en la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual, lo que
disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento de flujos de tfico no deseados,
configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN desde la interfaz administrativa de la
PF. Esta configuración permite descartar tramas inesperadas y potencialmente malintencionadas.
El controlador base ice de Linux* para la familia de adaptadores de controladora de Ethernet Intel serie 800 es compatible
con los kernels 3.10.0 y s recientes.
La información sobre los controladores puede obtenerse mediante ethtool, lspci e ifconfig. Se pueden encontrar
instrucciones para actualizar la ethtool en la sección Configuraciones adicionales más adelante en este documento.
Actualmente, el controlador solo es compatible como módulo cargable. Intel no proporciona parches para la fuente del
kernel que permitan enlazar los controladores de forma estática.
Dispositivos compatibles con el controlador base ice de Linux
l Ethernet Intel® 25G 2P E810-XXV OCP
l Adaptador de red Ethernet Intel® 25G 2P E810-XXV
Compilación e instalación
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'. Reemplace
<nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del código fuente del kernel instalado. Si acaba de recompilar el
kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
Instalación y configuración del controlador de Linux*
139
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/ice" o "/usr/local/src/ice".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
# tar zxf ice-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es elmero de versión del archivo tar del controlador:
# cd ice-<x.x.x>/src/
4. Compile el módulo del controlador:
# make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/ice/ice.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas, Podrían ser diferentes para las
distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se incluye en el
archivo tar del controlador.
5. Elimine el controlador antiguo:
# rmmod ice
6. Instale el módulo con el comando modprobe:
# modprobe ice <parámetro>=<valor>
7. Actualice la imagen del sistema:
dracut -f
8. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx> es el
nombre de interfaz:
# ifconfig <ethX> <dirección_IP> netmask <máscara de red> up
9. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
# ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM ice existentes que haya instalados actualmente en el sistema. Estas actualizaciones son
proporcionadas por SuSE en la versión SLES. Si no hay ninn RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM incluidos
es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ice-1.3.8.6-1.x86_64.rpm:
l ice es el nombre del componente
l 1.3.8.6-1 es la versión del componente
l x86_64 es el tipo de arquitectura
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM KMP
incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión
del kernel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ice-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:
Instalación y configuración del controlador de Linux*
140
l ice es el nombre del componente
l default es el tipo de kernel
l 1.3.8.6 es la versión del componente
l 2.6.27.19_5-1 es la versión del kernel
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMP, escriba los dos comandos siguientes:
# rpm -i <nombre de archivo rpm>
# rpm -i <nombre de archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM ice KMP, escriba lo siguiente:
# rpm -i intel-ice-1.3.8.6-1.x86_64.rpm
# rpm -i intel-ice-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-ice-2.3.4-1.x86_64.rpm:
l ice es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
# rpm -i <nombre de archivo rpm>
Por ejemplo, para instalar el paquete de RPM ice KMOD, escriba lo siguiente:
# rpm -i kmod-ice-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
El único pametro de línea de comandos que admite el controlador ice es el pametro de depuración, que puede
controlar el nivel de detalle de registro por defecto del controlador. (Nota: dyndbg tambn proporciona información de
depuración dimica.)
En general, utilice ethtool y otros comandos espeficos del sistema operativo para configurar los pametros modificables
por el usuario desps de cargar el controlador.
Configuraciones adicionales
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, así como para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool. Descárguela en:
https://kernel.org/pub/software/network/ethtool/
El valor rx_bytes de ethtool no coincide con el valor rx_bytes de Netdev, debido a que el dispositivo elimina el CRC de
4 bytes. La diferencia entre los 2 valores de rx_bytes será 4 veces elmero de paquetes Rx. Por ejemplo, si los paquetes
Rx son 10 y Netdev (estadísticas de software) muestra rx_bytes como “X”, ethtool (estadísticas de hardware) mostrará rx_
bytes como “X+40” (CRC de 4 bytes x 10 paquetes).
Instalación y configuración del controlador de Linux*
141
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que se
muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello, escriba lo
siguiente:
# dmesg -n 8
NOTA: esta configuración no se guarda entre reinicios.
Personalización dinámica de dispositivos
La personalización dimica de dispositivos (DDP) permite cambiar el canal de procesamiento de paquetes de un
dispositivo aplicando un paquete de perfiles al dispositivo en el tiempo de ejecución. Los perfiles se pueden usar, por
ejemplo, para agregar compatibilidad con nuevos protocolos, cambiar protocolos existentes o cambiar los ajustes
predeterminados. Los perfiles DDP tambn pueden revertirse sin necesidad de reiniciar el sistema.
El controlador instala automáticamente el archivo del paquete de DDP predeterminado durante la instalación del
controlador.
NOTA: es importante hacer “make install” durante la instalación inicial del controlador para que este cargue el
paquete de DDP automáticamente.
El paquete de DDP se carga durante la inicialización del dispositivo. El controlador busca intel/ice/ddp/ice.pkg en su
carpeta raíz del firmware (normalmente /lib/firmware/ o /lib/firmware/updates/) y comprueba que contiene un archivo de
paquete de DDP válido.
Si el controlador no puede cargar el paquete de DDP, el dispositivo entrará en modo seguro. El modo seguro desactiva las
funciones avanzadas y de rendimiento y solo admite el tfico básico y las funciones mínimas como la actualización de la
NVM o la descarga de un nuevo controlador o paquete de DDP. El modo seguro solo se aplica a la función física afectada y
no afecta a ninguna otra PF. Para obtener más información, consulte "Personalización dinámica de dispositivos (DDP)" en
la página14 y "Modo seguro" en lagina193 en esta guía para el usuario.
NOTA:
l Si tiene problemas con el archivo del paquete de DDP, es posible que tenga que descargar un controlador o
archivo del paquete de DDP actualizados. Consulte los mensajes de registro para obtener s información.
l El archivo ice.pkg es un enlace simbólico al archivo del paquete de DDP predeterminado instalado por el
paquete de software del firmware de Linux o la instalación del controlador fuera del directorio ice.
l No se puede actualizar el paquete de DDP si ya está cargado algún controlador de PF. Para sobrescribir un
paquete, descargue todas las PF y, a continuación, vuelva a cargar el controlador con el paquete nuevo.
l Solo la primera PF cargada por dispositivo puede descargar un paquete para ese dispositivo.
l Puede instalar archivos de paquetes de DDP específicos para diferentes dispositivos físicos en el mismo
sistema. Consulte el LÉAME del controlador de Linux en su instalación para obtener instrucciones sobre
cómo instalar un archivo de paquete de DDP específico.
RDMA (Acceso remoto directo a memoria)
El Acceso remoto directo a memoria, o RDMA por sus siglas en inglés, permite que un dispositivo de red transfiera datos
directamente a y desde la memoria de aplicaciones en otro sistema, aumentando el rendimiento y disminuyendo la latencia
en ciertos entornos de red.
El controlador ice es compatible con los siguientes protocolos RDMA:
l iWARP (Protocolo RDMA de área amplia de Internet)
l RoCEv2 (RDMA en Ethernet de convergencia)
La diferencia principal es que iWARP realiza RDMA a tras de TCP, mientras que RoCEv2 utiliza UDP.
Para obtener información detallada sobre la instalación y configuración, consulte el archivo LÉAME en el archivo -tar del
controlador de RDMA.
Instalación y configuración del controlador de Linux*
142
NOTAS:
l Los dispositivos basados en la controladora de Ethernet Intel® serie 800 no admiten RDMA cuando
funcionan en modo multipuerto con más de 4 puertos.
l No puede utilizar RDMA ni SR-IOV cuando la agregación de enlaces (LAG)/unn esté activa y viceversa.
Para aplicar esto, en kernels 4.5 y posteriores, el controlador ice comprueba esta exclusión mutua. En kernels
anteriores a 4.5, el controlador ice no puede comprobar esta exclusión y no tiene constancia de eventos de
unión.
Colas de dispositivos de aplicación (ADQ)
Las colas de dispositivos de aplicación (ADQ) permiten dedicar una o más colas a una aplicación específica. Esto puede
reducir la latencia de la aplicación especificada y permitir que el tráfico Tx esté limitado por aplicación.
Para conocer los requisitos y la información de configuración, consulte la Guía de configuración de colas de dispositivos de
aplicación (ADQ) de controladoras de Ethernet Intel® E810 (https://cdrdv2.intel.com/v1/dl/getContent/609008).
Director de flujo de Ethernet Intel®
El Director de flujo de Ethernet Intel realiza las siguientes tareas:
l Dirige los paquetes de recepción según sus flujos a distintas colas
l Permite un control estricto al enrutar un flujo en la plataforma
l Empareja flujos y núcleos de CPU para conseguir afinidad de flujo
Un script incluido (set_irq_affinity) automatiza la configuración de IRQ en afinidad de CPU.
Este controlador admite los siguientes tipos de flujo:
l IPv4
l TCPv4
l UDPv4
l IPv6
l TCPv6
l UDPv6
Para un determinado tipo de flujo, admite combinaciones válidas de direcciones IP (origen o destino) y puertos UDP/TCP
(origen y destino). Por ejemplo, puede proporcionar solo una dirección IP de origen, una dirección IP de origen y un puerto
de destino, o cualquier combinación de uno o más de estos cuatro parámetros.
Este controlador le permite filtrar el tráfico en función de un desplazamiento y un patrón de dos bytes flexible definidos por
el usuario mediante el uso de los campos de máscara y user-def de ethtool. Solo los tipos de flujo L3 y L4 son compatibles
para los filtros flexibles definidos por el usuario. Para un determinado tipo de flujo, debe borrar todos los filtros del Director
de flujo de Ethernet Intel antes de cambiar el conjunto de entrada (para ese tipo de flujo).
NOTA: los filtros del Director de flujo solo afectan al tfico LAN. El filtrado RDMA sucede antes del Director de flujo,
por lo que los filtros del Director de flujo no afectarán al RDMA.
La tabla a continuación resume las funciones del Director de flujo de Ethernet Intel en las controladoras de Ethernet Intel®.
Característica Serie 500 Serie 700 Serie 800
Director de flujo de VF Compatible El enrutamiento a VF
no es compatible
No admitido
Filtro de rangos de
direcciones IP
Compatible No admitido No admitido
Compatible con IPv6 No admitido No admitido Compatible
Conjunto de entrada Configurado por Configurado Configurado por
Instalación y configuración del controlador de Linux*
143
configurable puerto globalmente puerto
ATR Compatible Compatible No admitido
Filtro de bytes flexible Comienza al principio
del paquete
Comienza al principio
de la carga
Comienza al principio
del paquete
Paquetes con túneles El filtro coincide con la
cabecera exterior
El filtro coincide con la
cabecera interior
El filtro coincide con la
cabecera exterior
Para habilitar el Director de flujo de Ethernet Intel:
# ethtool -K <ethX> ntuple <on|off>
Al desactivar filtros de ntuple, todos los filtros programados del usuario se vacían de la caché del controlador y el hardware.
Todos los filtros necesarios deben volver a agregarse cuando se vuelve a habilitar ntuple.
Filtros del Director de flujo
Los filtros del Director de flujo se usan para dirigir el tfico que coincide con unas características especificadas. Están
habilitadas a través de la interfaz ntuple de ethtool. Para habilitar o deshabilitar estos filtros:
# ethtool -K <ethX> ntuple <off|on>
Para mostrar todos los filtros activos:
# ethtool -u <ethX>
Para agregar un nuevo filtro:
# ethtool -U <ethX> flow-type <type> src-ip <ip> dst-ip <ip> src-port <port> dst-
port <port> action <queue>
Donde:
l <ethX> - el dispositivo Ethernet que programar
l <tipo>: puede ser ip4, tcp4, udp4sctp4, ip6, tcp6, udp6 o sctp6
l <ip>: la dirección IP que coincida
l <port>: elmero de puerto que coincida
l <queue>: la cola hacia la que se va a dirigir el tfico (-1 descarta el tfico coincidente)
Para eliminar un filtro:
# ethtool -U <ethX> delete <N>
Donde <N> es el ID de filtro que se muestra al imprimir todos los filtros activos, y tambn puede haberse
especificado mediante “loc <N>” al agregar el filtro.
Ejemplos:
Para agregar un filtro que dirija el paquete a la cola 2:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 src-port
2000 dst-port 2001 action 2 [loc 1]
Para establecer un filtro utilizando solo las direcciones IP de origen y de destino:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 action 2
[loc 1]
Para establecer un filtro basado en un patrón y un desplazamiento definidos por el usuario:
# ethtool -N <ethX> flow-type tcp4 src-ip 192.168.10.1 dst-ip 192.168.10.2 user-def
0x4FFFF action 2 [loc 1]
Instalación y configuración del controlador de Linux*
144
donde el valor del campo user-def contiene el desplazamiento (4 bytes) y el patn (0xffff).
Para emparejar el tfico TCP enviado desde 192.168.0.1, puerto 5300, dirigido a 192.168.0.5, puerto 80, y enviarlo a la
cola 7:
# ethtool -U enp130s0 flow-type tcp4 src-ip 192.168.0.1 dst-ip 192.168.0.5 src-port
5300 dst-port 80 action 7
Para cada tipo de flujo, todos los filtros programados deben tener el mismo conjunto de entrada coincidente. Por ejemplo, la
emisión de los dos comandos siguientes es aceptable:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.5 src-port 55 action 10
La emisión de los dos pximos comandos, sin embargo, no es aceptable, ya que el primero especifica src-ip y el
segundo especifica dst-ip:
# ethtool -U enp130s0 flow-type ip4 src-ip 192.168.0.1 src-port 5300 action 7
# ethtool -U enp130s0 flow-type ip4 dst-ip 192.168.0.5 src-port 55 action 10
El segundo comando falla con un error. Puede programar varios filtros con los mismos campos, utilizando diferentes
valores; pero en un dispositivo, no puede programar dos filtros tcp4 con diferentes campos coincidentes.
El emparejamiento en una subporción de un campo no es compatible con el controlador, por lo que los campos de scara
parcial no se admiten.
Filtros Flex Byte del Director de flujo
El controlador tambn admite la coincidencia de datos definidos por el usuario dentro de la carga de paquetes. Estos datos
flexibles se especifican mediante el campo "definido por el usuario" del comando ethtool de la manera siguiente:
31 28 24 20 16 15 12 8 4 0
Desplazamiento en carga de paquetes 2 bytes de datos flexibles
Por ejemplo,
... user-def 0x4FFFF ...
indica al filtro que busque 4 bytes en la carga y empareje ese valor con 0xFFFF. El desplazamiento se basa en el principio
de la carga, y no el principio del paquete. Por lo tanto:
flow-type tcp4 ... user-def 0x8BEAF ...
emparejaría los paquetes TCP/IPv4 que tienen el valor 0xBEAF de 8 bytes con la carga TCP/IPv4.
Tenga en cuenta que las cabeceras de ICMP se analizan como 4 bytes de cabecera y 4 bytes de carga. Por lo tanto, para
emparejar el primer byte de la carga, en realidad debe agregar 4 bytes al desplazamiento. Tenga en cuenta también que
los filtros ip4 coinciden tanto con las tramas ICMP como con las tramas ip4 raw (desconocido), donde la carga será la carga
L3 de la trama IP4.
El desplazamiento máximo es 64. El hardware solo leerá hasta 64 bytes de datos del paquete. El desplazamiento debe ser
equitativo porque los datos flexibles tienen una longitud de 2 bytes y deben estar alineados con el byte 0 de la carga de
paquetes.
El desplazamiento flexible definido por el usuario también se considera parte del conjunto de entrada y no se puede
programar por separado para varios filtros del mismo tipo. Sin embargo, los datos flexibles no forman parte del conjunto de
entrada, y varios filtros pueden utilizar el mismo desplazamiento, pero coincidir con datos diferentes.
Flujo de hash RSS
Le permite establecer los bytes de hash por tipo de flujo y cualquier combinación de una o más opciones para la
configuración de bytes de hash de ajuste de escala en lado de recepción (RSS).
Instalación y configuración del controlador de Linux*
145
# ethtool -N <ethX> rx-flow-hash <type><option>
Donde <type> es:
tcp4 significa TCP en IPv4
udp4 significa UDP en IPv4
tcp6 significa TCP en IPv6
udp6 significa UDP en IPv6
Y <option> es una opción o más de las siguientes:
s hash en la dirección IP de origen del paquete Rx.
d hash en la dirección IP de destino del paquete Rx.
f hash en bytes 0 y 1 de la cabecera de la capa 4 del paquete Rx.
n hash en bytes 2 y 3 de la cabecera de la capa 4 del paquete Rx.
Direccn acelerada del flujo de recepcn (aRFS)
Los dispositivos basados en la controladora de Ethernet Intel® serie 800 admiten la dirección acelerada del flujo de
recepción (aRFS) en la PF. aRSF es un mecanismo de equilibrado de cargas que permite dirigir paquetes a la misma CPU
en la que una aplicación se está ejecutando o consumiendo los paquetes de ese flujo.
NOTAS:
l aRFS requiere que el filtrado de ntuple se habilite mediante ethtool.
l La compatibilidad con aRFS se limita a los siguientes tipos de paquetes:
l TCP en IPv4 e IPv6
l UDP en IPv4 e IPv6
l Paquetes no fragmentados
l aRFS solo admite filtros del Director de flujo, que consisten en las direcciones IP de origen/destino y puertos
de origen/destino.
l aRFS y la interfaz ntuple de ethtool utilizan el Director de flujo del dispositivo. Las funciones de aRFS y ntuple
pueden coexistir, pero puede obtener resultados inesperados si hay un conflicto entre las solicitudes de
aRFS y ntuple.
Para configurar aRFS:
1. Habilite los filtros del Director de flujo de Ethernet Intel y ntuple mediante ethtool.
# ethtool -K <ethX> ntuple on
2. Establezca el número de entradas de la tabla de flujo global. Por ejemplo:
# NUM_RPS_ENTRIES=16384
# echo $NUM_RPS_ENTRIES > /proc/sys/net/core/rps_sock_flow_entries
3. Establezca el número de entradas en la tabla de flujo por cola. Por ejemplo:
# NUM_RX_QUEUES=64
# for file in /sys/class/net/$IFACE/queues/rx-*/rps_flow_cnt; do
# echo $(($NUM_RPS_ENTRIES/$NUM_RX_QUEUES)) > $file;
# done
4. Deshabilite el daemon de distribución de IRQ (esto es solo una parada temporal del servicio hasta el siguiente
reinicio).
# systemctl stop irqbalance
Instalación y configuración del controlador de Linux*
146
5. Configure la afinidad de interrupción.
# set_irq_affinity <ethX>
Para deshabilitar aRFS con ethtool:
# ethtool -K <ethX> ntuple off
NOTA: Este comando deshabilitará los filtros de ntuple y borra cualquier filtro de aRFS en el software y hardware.
Ejemplo de caso de uso:
1. Establezca la aplicación del servidor en la CPU deseada (p. ej., CPU 4).
# taskset -c 4 netserver
2. Utilice netperf para dirigir tráfico del cliente a la CPU 4 en el servidor con aRSF configurada. Este ejemplo utiliza
TCP en IPv4.
# netperf -H <Host IPv4 Address> -t TCP_STREAM
Habilitar funciones virtuales (VF)
Utilice sysfs para habilitar funciones virtuales (VF).
Por ejemplo, puede crear 4 VF de la siguiente manera:
# echo 4 > /sys/class/net/<ethX>/device/sriov_numvfs
Para deshabilitar VF, escriba 0 en el mismo archivo:
# echo 0 > /sys/class/net/<ethX>/device/sriov_numvfs
El número máximo de VF para el controlador ice es 256 en total (todos los puertos). Para comprobar cuántas VF admite
cada PF, utilice el siguiente comando:
# cat /sys/class/net/<ethX>/device/sriov_totalvfs
NOTA: no puede utilizar RDMA ni SR-IOV cuando la agregación de enlaces (LAG)/unn esté activa y viceversa.
Para aplicar esto, en kernels 4.5 y posteriores, el controlador ice comprueba esta exclusión mutua. En kernels
anteriores a 4.5, el controlador ice no puede comprobar esta exclusión y no tiene constancia de eventos de unión.
Configuración del etiquetado VLAN en puertos de adaptadores habilitados para SR-IOV
Para configurar el etiquetado VLAN para los puertos en un adaptador habilitado para SR-IOV, use el comando siguiente. La
configuración de VLAN debe establecerse antes de cargar el controlador de la VF o arrancar la VM. La VF no es consciente
de que la etiqueta VLAN se inserta en la transmisión y se elimina en las tramas recibidas (a veces llamado modo “VLAN de
puerto”).
# ip link set dev <PF netdev id> vf <id> vlan <vlan id>
Por ejemplo, las siguientes instrucciones configurarán PF eth0 y la primera VF en VLAN 10:
# ip link set dev eth0 vf 0 vlan 10
Establecer la dirección MAC para una VF
Para cambiar la dirección MAC de la VF especificada:
# ip link set <ethX> vf 0 mac <address>
Por ejemplo:
# ip link set <ethX> vf 0 mac 00:01:02:03:04:05
Instalación y configuración del controlador de Linux*
147
Esta configuración dura hasta que la PF se recarga.
NOTA: la asignación de una dirección MAC a una VF desde el host deshabilitará cualquier solicitud posterior para
cambiar la dirección MAC desde dentro de la VM. Esto es una función de seguridad. La VM no tiene constancia de
esta restricción, por lo que si se intenta en la VM, desencadenará eventos de MDD.
VF de confianza y modo promiscuo de VF
Esta función le permite designar una determinada VF como de confianza, y permite que esta VF de confianza solicite el
modo promiscuo selectivo en la función física (PF).
Para establecer una VF como de confianza o no de confianza, introduzca el comando siguiente en el hipervisor:
# ip link set dev eth0 vf 1 trust [on|off]
NOTA: es importante establecer la VF en “de confianza” antes de establecer el modo promiscuo. Si la VM no es de
confianza, la PF ignorará las solicitudes de modo promiscuo de la VF. Si la VM se vuelve de confianza desps de
haber cargado el controlador de la VF, debe hacer una nueva solicitud para establecer la VF en promiscua.
Una vez que la VF se ha designado como de confianza, utilice los siguientes comandos en la VM para establecer la VF en
modo promiscuo.
l Para establecer todo en promiscuo: # ip link set eth2 promisc on
donde eth2 es una interfaz de la VF en la VM
l Para multidifusión promiscua: # ip link set eth2 allmulticast on
donde eth2 es una interfaz de la VF en la VM
NOTA: de forma predeterminada, el indicador privado de ethtool vf-true-promisc-support está establecido en “off
(desactivado), lo que significa que el modo promiscuo para la VF será limitado. Para establecer el modo promiscuo
para la VF en verdaderamente promiscuo y permitir que la VF vea todo el tfico de entrada, utilice el comando
siguiente:
# ethtool --set-priv-flags p261p1 vf-true-promisc-support on
El indicador privado vf-true-promisc-support no habilita el modo promiscuo, sino que designa qué tipo de modo promiscuo
(limitado o verdadero) obtendrá al habilitar el modo promiscuo mediante los comandos de enlace ip anteriores. Tenga en
cuenta que esta es una configuración global que afecta a todo el dispositivo. Sin embargo, el indicador privado vf-true-
promisc-support solo se expone a la primera PF del dispositivo. La PF continúa en modo promiscuo
limitadoindependientemente de la configuración vf-true-promisc-support.
A continuación, agregue una interfaz VLAN en la interfaz de la VF.
# ip link add link eth2 name eth2.100 type vlan id 100
Tenga en cuenta que el orden en el que establece la VF en modo promiscuo y agrega la interfaz VLAN no importa (puede
hacer cualquiera de las acciones primero). El resultado de este ejemplo es que la VF obtendrá todo el tfico etiquetado
con VLAN 100.
Límite de tasa Tx de la función virtual (VF)
Utilice el comando ip para configurar el límite de la tasa Tx máxima o mínima para una VF desde la interfaz de la PF.
Por ejemplo, para establecer un límite máximo de la tasa Tx de 8000 Mbps para VF 0:
# ip link set eth0 vf 0 max_tx_rate 8000
Por ejemplo, para establecer un límite mínimo de la tasa Tx de 1000 Mbps para VF 0:
# ip link set eth0 vf 0 min_tx_rate 1000
Instalación y configuración del controlador de Linux*
148
Detección de controladores maliciosos (MDD) para VF
Algunos dispositivos Ethernet Intel utilizan la detección de controladores maliciosos (MDD) para detectar tfico malicioso
desde la VF y deshabilitar las colas de transmisión/recepción o descartar el paquete que causa el problema hasta que haya
un reinicio del controlador de la VF. Puede ver mensajes de MDD en el registro del sistema de la PF con el comando
dmesg.
l Si el controlador de la PF registra eventos de MDD de la VF, confirme que está instalado el controlador de la VF
correcto.
l Para restaurar la funcionalidad, puede recargar manualmente la VF o VM o habilitar los reinicios automáticos de la
VF.
l Cuando se activan los reinicios automáticos de la VF, el controlador de la PF reiniciará inmediatamente la VF y
volve a habilitar las colas cuando detecte eventos de MDD en la ruta de recepción.
l Si los reinicios autoticos de la VF están deshabilitados, la PF no reinicia autoticamente la VF cuando detecte
eventos de MDD.
Para habilitar o deshabilitar reinicios automáticos de la VF, utilice el siguiente comando:
# ethtool --set-priv-flags <ethX> mdd-auto-reset-vf on|off
Función antisuplantación de identidad de MAC y VLAN para VF
Cuando un controlador malicioso en la interfaz de una función virtual (VF) intenta enviar un paquete de suplantación de
identidad, el hardware lo descarta y no se trasmite.
Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente mensaje al registro del sistema
(use el comando "dmesg" para verlo):
Esta función puede deshabilitarse para una VF concreta:
# ip link set <pf dev> vf <vf id> spoofchk {off|on}
Tramas Jumbo
La compatibilidad con las tramas Jumbo se activa cambiando la MTU a un valor mayor al valor predeterminado de 1500
bytes. Utilice el comando ifconfig para aumentar el tamaño de la MTU. Por ejemplo, introduzca lo siguiente, donde <ethX>
es elmero de la interfaz:
# ifconfig <ethX> mtu 9000 up
De forma alternativa, puede utilizar el comando ip de la siguiente manera:
# ip link set mtu 9000 dev <ethX>
# ip link set up dev <ethX>
Esta configuración no se guarda entre reinicios. El cambio de configuración se puede hacer permanente agregando “MTU
= 9000” al siguiente archivo:
l /etc/sysconfig/network-scripts/ifcfg-<ethX> para RHEL
l /etc/sysconfig/network/<archivo_config> para SLES
NOTAS:
l El valor ximo para la configuración de MTU para las tramas Jumbo es 9702 bytes. Este valor coincide con
el tamaño máximo de las tramas Jumbo de 9728 bytes.
l Este controlador intentará utilizar varios búferes de tamaño degina para recibir cada paquete Jumbo. Se
estima que esto ayuda a evitar los problemas de escasez defer al asignar los paquetes de recepción.
l Lardida de paquetes puede tener un mayor impacto en el rendimiento cuando se utilizan tramas Jumbo.
Si observa una caída en el rendimiento después de activar las tramas Jumbo, la activación del control de flujo
puede mitigar el problema.
Instalación y configuración del controlador de Linux*
149
Configuración de la velocidad y el dúplex
Al abordar los problemas de configuración de velocidad y plex, es necesario distinguir entre los adaptadores basados en
cobre y los adaptadores basados en fibra.
En el modo predeterminado, un adaptador de red Ethernet Intel® que utilice conexiones de cobre intenta realizar la
negociación automática con su interlocutor de enlace para determinar la mejor configuración. Si no se establece un enlace
con el interlocutor de enlace mediante la negociación automática, puede que sea necesario poner el adaptador y el
interlocutor del enlace en la misma configuración manualmente, a fin de establecer el enlace y pasar paquetes. Esto se
necesario únicamente cuando se intente establecer el enlace con un conmutador antiguo que no admite la negociación
automática o uno que ha sido forzado a una velocidad o modo dúplex específicos. Su interlocutor de enlace debe coincidir
con el valor establecido. No se pueden forzar las velocidades de 1 Gbps o más. Utilice la configuración de anuncios de
negociación automática para configurar manualmente los dispositivos para 1 Gbps y velocidades superiores.
Los anuncios de velocidad, plex y negociación automática se configuran mediante la utilidad ethtool. ethtool está
incluida en todas las versiones de Red Hat posteriores a Red Hat 7.2. Para ver las configuraciones de velocidad
compatibles con su dispositivo, ejecute lo siguiente:
# ethtool <ethX>
ADVERTENCIA: solamente los administradores de red experimentados deberían forzar manualmente la velocidad
y el modo dúplex o cambiar los anuncios de negociación automática. La configuración del conmutador siempre
debe coincidir con la del adaptador. Puede verse afectado el rendimiento del adaptador o éste podría dejar de
funcionar si lo configura de manera distinta al conmutador.
Habilitación de puentes de centro de datos (DCB)
Nota: El kernel asume que TC0 está disponible y deshabilita el control de flujo de prioridad (PFC) en el dispositivo si TC0
no está disponible. Para solucionar este problema, aserese de que TC0 se ha habilitado al configurar DCB en el
conmutador.
DCB es una implementación de calidad de servicio de configuración en el hardware. Utiliza la etiqueta de prioridad VLAN
(802.1p) para filtrar el tfico. Esto significa que hay 8 prioridades diferentes con las que se puede filtrar el tfico. También
permite un control de flujo prioritario (802.1Qbb) que puede limitar o eliminar la pérdida de paquetes durante los momentos
de mayor uso de la red. Se puede asignar un ancho de banda a cada una de estas prioridades, que se aplica en el nivel de
hardware (802.1Qaz).
El firmware del adaptador implementa los agentes de los protocolos LLDP y DCBX de acuerdo con 802.1AB y 802.1Qaz,
respectivamente. Potencialmente, hay dos modos DCBX en Linux, dependiendo del dispositivo subyacente de la PF:
l Los adaptadores de controladora de Ethernet Intel serie 800 admiten DCBX de firmware y DCBX de software. Si FW-
LLDP está habilitado, DCBX se ejecuta en el firmware.
Los pametros de DCB se pueden establecer mediante un agente LLDP/DCBX del firmwareo un agente LLDP/DCBX del
software. Solo puede haber un agente LLDP/DCBX activo en una sola interfaz a la vez. Cuando el agente DCBX de
firmware está activo, los agentes de software no podrán recibir ni transmitir tramas LLDP.
Consulte la subsección “FW-LLDP (protocolo de descubrimiento de la capa de enlace)” de este controlador para conocer
los comandos de ethtool para consultar el estado del agente LLDP/DCBX del firmware.
Cuando funciona en el modo del DCBX del firmware, el adaptador está en un estado “siempre dispuesto”. Los ajustes del
DCB se aplican en el adaptador mediante la transmisión de una configuración de no dispuesto desde el interlocutor de
enlace. Habitualmente, esto es un conmutador. Para configurar los parámetros de DCBX en un conmutador, consulte la
documentación del fabricante del conmutador.
NOTA:
Adaptadores de controladora de Ethernet Intel serie 800:
l Este controlador es compatible con DCB cuando el agente de firmware está activado o desactivado, ya que
admite agentes DCBX del software.
l Cuando el agente LLDP del firmware está deshabilitado, puede configurar pametros de DCB mediante
agentes LLDP/DCBX del software que interactúan con la API de DCB Netlink del kernel de Linux.
Instalación y configuración del controlador de Linux*
150
Recomendamos usar OpenLLDP como agente DCBX cuando se esté ejecutando en el modo de software.
Para obtener s información, consulte las páginas del manual de OpenLLDP y
https://github.com/intel/openlldp.
l iSCSI con DCB no es compatible.
FW-LLDP (Firmware-Protocolo de detección de capa de enlace)
Utilice ethtool para cambiar los ajustes de FW-LLDP. La configuración de FW-LLDP es por puerto y persiste entre
arranques.
Para habilitar LLDP:
# ethtool --set-priv-flags <ethX> fw-lldp-agent on
Para deshabilitar LLDP:
# ethtool --set-priv-flags <ethX> fw-lldp-agent off
Para comprobar el ajuste de LLDP actual:
# ethtool --show-priv-flags <ethX>
NOTA: debe activar el atributo “LLDP Agent” de UEFI HII para aplicar esta configuración. Si la opción "LLDP AGENT"
está desactivada, no podrá activarla desde el sistema operativo.
Control de flujo
El control de flujo de Ethernet (IEEE 802.3x) se puede configurar con ethtool para habilitar la recepción y transmisión de
tramas de pausa para este controlador. Cuando está habilitada la transmisión, las tramas de pausa se generan cuando el
fer de paquetes de recepción cruza un umbral predefinido. Cuando está habilitada la recepción, la unidad de transmisión
se detend durante el tiempo de retraso especificado cuando se reciba una trama de pausa.
NOTAS:
l Debe contar con un interlocutor de enlace con capacidad para el control de flujo.
l Este controlador requiere control de flujo en el puerto y el interlocutor de enlace. Si el control de flujo está
deshabilitado en uno de los lados, es posible que el puerto parezca detenerse cuando hay mucho tfico.
Utilice ethtool para cambiar los ajustes de control de flujo.
Para habilitar o deshabilitar el control de flujo de Rx o Tx:
# ethtool -A <ethX> rx <on|off> tx <on|off>
NOTA: este comando solo habilita o deshabilita el control de flujo si la negociación automática está deshabilitada. Si
la negociación automática está habilitada, este comando cambia los parámetros utilizados para la negociación
automática con el interlocutor de enlace.
Para habilitar o deshabilitar la negociación automática:
# ethtool -s <ethX> autoneg <on|off>
NOTA: la negociación automática del control de flujo forma parte de la negociación autotica del enlace.
Dependiendo de su dispositivo, es posible que no pueda cambiar el ajuste de negociación automática.
Puede encontrarse problemas con el control de flujo a nivel de enlace (LFC) tras deshabilitar DCB. El estado de LFC se
puede mostrar como habilitado pero el tráfico no se pausa. Para resolver este problema, deshabilite y vuelva a habilitar
LFC con ethtool:
# ethtool -A <ethX> rx off tx off
# ethtool -A <ethX> rx on tx on
Instalación y configuración del controlador de Linux*
151
NAPI
Este controlador es compatible con NAPI (modo de sondeo Rx). Para obtener más información sobre NAPI, consulte
https://wiki.linuxfoundation.org/networking/napi.
MACVLAN
Este controlador es compatible con MACVLAN. Para probar la compatibilidad del kernel con MACVLAN, compruebe si el
controlador MACVLAN está cargado. Puede ejecutar “lsmod | grep macvlan” para ver si el controlador MACVLAN está
cargado o bien ejecutar “modprobe macvlan” para intentar cargarlo.
NOTA:
l En el modo passthru, solo puede establecer un dispositivo MACVLAN. Heredará la dirección MAC del
dispositivo subyacente de la PF (función sica).
l No puede habilitar la descarga de MACVLAN y ADQ al mismo tiempo.
Los dispositivos ice admiten la descarga de reenvíos L2. Esto descargará el procesamiento requerido para los reenos L2
de los procesadores del sistema alicedispositivo.
Siga los siguientes pasos para habilitar la descarga de reenvíos L2:
1. Habilitar descargas de reenvíos L2:
# ethtool -K <ethX> l2-fwd-offload on
2. Cree netdevs de MACVLAN y asócielos a la PF.
3. Acceda a/habilite los devnets de MACVLAN.
Compatibilidad con IEEE 802.1ad (QinQ)
El estándar IEEE 802.1ad, conocido informalmente como QinQ, permite múltiples ID de VLAN dentro de una misma trama
de Ethernet. A veces se hace referencia a las ID de VLAN como “etiquetas”, y a múltiples ID de VLAN, por tanto, como “pila
de etiquetas”. Las pilas de etiquetas permiten túneles L2 y la capacidad de segregar tfico dentro de una ID de VLAN en
particular, entre otros usos.
NOTAS:
l 802.1ad (QinQ) es compatible con kernels 3.19 y posteriores.
l 802.1ad (QinQ) y RDMA no son compatibles.
l Las descargas de sumas de comprobación de recepción y la aceleración de VLAN no son compatibles con
los paquetes de 802.1ad (QinQ).
l El tráfico 0x88A8 no se recibirá a menos que la eliminación de VLAN se deshabilite con el siguiente
comando:
# ethool -K <ethX> rxvlan off
l La VF solo puede transmitir tfico 0x88A8/0x8100 (es decir, 802.1ad/802.1Q) si:
1. la VF no está asignada a una VLAN de puerto;
2. spoofchk está deshabilitado desde la PF. Si habilita spoofchk, la VF no transmitirá tfico
0x88A8/0x8100.
A continuación se muestran ejemplos de mo configurar 802.1ad (QinQ):
# ip link add link eth0 eth0.24 type vlan proto 802.1ad id 24
# ip link add link eth0.24 eth0.24.371 type vlan proto 802.1Q id 371
Donde “24” y “371” son ID de VLAN de ejemplo.
Reloj de hardware del protocolo de tiempo de precisión (PHC) IEEE 1588
El protocolo de tiempo de precisión (PTP) se utiliza para sincronizar los relojes en una red informática. El PTP varía en
función de los dispositivos de Intel que admite este controlador. Utilice “ethtool -T <ethX>” para obtener una lista definitiva
de las capacidades de PTP que admite el dispositivo.
Instalación y configuración del controlador de Linux*
152
Descargas sin estado de túnel/superposición
Los túneles y superposiciones compatibles incluyen VXLAN, GENEVE y otros, dependiendo de la configuración de
hardware y software. Las descargas sin estado están habilitadas de forma predeterminada.
Para ver el estado actual de todas las descargas:
# ethtool -k <ethX>
Descarga de segmentación de UDP
Permite al adaptador descargar la segmentación de transmisión de paquetes UDP con cargas útiles de hasta 64 K en
tramas de Ethernet lidas. Debido a que el hardware del adaptador puede efectuar la segmentación de los datos mucho
más rápidamente que el software del sistema operativo, esta función puede aumentar el rendimiento de transmisión.
Además, el adaptador puede utilizar menos recursos de la CPU.
NOTAS:
l La descarga de la segmentación de transmisión de UDP requiere un kernel de Linux 4.18 o
posterior.
l La aplicación que envía paquetes UDP debe ser compatible con la descarga de segmentación
de UDP.
Para habilitar/deshabilitar la descarga de segmentación de UDP, ene el siguiente comando:
# ethtool -K <ethX> tx-udp-segmentation [off|on]
Optimizacn del rendimiento
Los valores por defecto de los controladores se adaptan a una amplia variedad de cargas de trabajo. Si se requiere una
mayor optimización, recomendamos experimentar con la siguiente configuración.
Alineación de IRQ con colas de adaptador
Asigne los IRQ del adaptador a núcleos específicos deshabilitando el servicio irpbalance y utilizando la secuencia de
comandos set_irq_affinity incluida. Consulte el texto de ayuda de la secuencia de comandos para ver más opciones.
La siguiente configuración distribuirá los IRQ en todos los núcleos uniformemente:
# scripts/set_irq_affinity -X all <interfaz1> , [ <interfaz2>, ... ]
La siguiente configuración distribuirá los IRQ en todos los núcleos que son locales del adaptador (el mismo nodo NUMA):
# scripts/set_irq_affinity -X local <interfaz1> ,[ <interfaz2>, ... ]
Para cargas de trabajo intensivas de la CPU, recomendamos asignar los IRQ a todos los núcleos.
Tamaño del anillo de descriptores Rx
Con el fin de reducir elmero de descartes de paquetes Rx, deberá incrementar elmero de descriptores Rx de cada
anillo Rx mediante ethtool.
Compruebe si la interfaz está perdiendo paquetes Rx debido a que los búferes están llenos (rx_dropped.nic significa que
no hay ancho de banda de PCIe):
# ethtool -S <interfaz> | grep "rx_dropped"
Incremente elmero de descriptores Rx de cada anillo Rx mediante ethtool. Esto podría ayudar a reducir las pérdidas de
paquetes Rx a costa de los recursos del sistema:
# ethtool -G <interfaz> rx N
Donde N es elmero deseado de anillos
Instalación y configuración del controlador de Linux*
153
Limitación de la tasa de interrupción
Este controlador es compatible con un mecanismo de tasa de interrupción adaptativa optimizado para cargas de trabajo
generales. El usuario puede personalizar el control de la tasa de interrupción para cargas de trabajo espeficas, mediante
ethtool, ajustando elmero de microsegundos entre interrupciones.
Para configurar manualmente la tasa de interrupción, debe deshabilitar el modo adaptativo:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off
Para una menor utilizacn de la CPU:
1. Desactive la ITR adaptativa y reduzca las interrupciones de Rx y Tx. Los siguientes ejemplos afectan a todas las
colas de la interfaz especificada.
2. La configuración de rx-usecs y tx-usecs en 125 limitará las interrupciones a unas 8000 por segundo y cola:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off rx-usecs 125 tx-usecs 125
Para una menor latencia:
Desactive la ITR adaptativa y la ITR mediante el ajuste de rx-usecs y tx-usecs en 0 a tras de ethtool:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off rx-usecs 0 tx-usecs 0
Entornos virtualizados
Además de las otras sugerencias de esta sección, lo siguiente puede ser útil para optimizar el rendimiento en las máquinas
virtuales.
Utilizando el mecanismo apropiado (vcpupin) en la VM, ancle las CPU a LCPU individuales, asegundose de utilizar un
conjunto de CPU incluidas en el local_cpulist del dispositivo: /sys/class/net/<ethX>/device/local_cpulist.
Configure tantas colas Rx/Tx en la VM como estén disponibles. (Consulte la documentación del controlador iavf para
conocer el número de colas admitidas). Por ejemplo:
# ethtool -L <interfaz_virt> rx <máx> tx <máx>
Problemas conocidos
Depuración dinámica
Si encuentra problemas inesperados durante la carga del controlador, una de las informaciones más útiles para los
desarrolladores en un informe de defectos puede ser el registro del controlador. Este registro utiliza una función del kernel
llamada Depuración dinámica, que suele estar habilitada en la mayoa de las configuraciones del kernel (CONFIG_
DYNAMIC_DEBUG=y).
Para cargar el controlador con la depuración dinámica habilitada, ejecute modprobe con el parámetro dyndbg:
# modprobe ice dyndbg=+p
El controlador cargará e imprimirá la información de depuración en el registro del kernel (dmesg), que normalmente se
registra en el registro del sistema y se puede consultar mediante journalctl o en /var/log/messages. Guardar esta
información en un archivo y adjuntarla a cualquier informe de defectos puede ayudar a acortar el tiempo de reproducción y
depuración para un desarrollador.
Para habilitar la depuración dinámica durante el tiempo de ejecución del controlador, utilice este comando:
# echo "module ice +p" > /sys/kernel/debug/dynamic_debug/control
Para obtener s información, consulte la documentación de depuración dinámica incluida en las instrucciones del kernel
de Linux.
Instalación y configuración del controlador de Linux*
154
“ethtool -Sno muestra las estadísticas de paquetes Tx/Rx
Al emitir el comando “ethtool -S” no se muestran las estadísticas de los paquetes Tx/Rx. Esto es por convención. Utilice
otras herramientas (por ejemplo, ifconfig, ip) que muestren las estadísticas estándar de netdev, como las estadísticas de los
paquetes Tx/Rx.
Fibra óptica y negociación automática
Los módulos basados en 100GBASE-SR4, cable óptico activo (AOC) y cable de cobre activo (ACC) no admiten la
negociación automática según la especificación IEEE. Para obtener un enlace con estos módulos, debe desactivar la
negociación automática en los puertos de conmutador del interlocutor de enlace.
El resultado de la negociación automática “ethtool -a” puede variar entre los con-
troladores
En las versiones del kernel 4.6 o superiores, “ethtool -a” mostrará la configuración de negociación automática anunciada y
negociada. En las versiones del kernel inferiores a la 4.6, ethtool solo informará del estado del enlace negociado.
El problema es superficial y no afecta a la funcionalidad. La instalación del controlador ice s reciente y la actualización
del kernel a la versión 4.6 o superior resolverán el problema.
AF_XDP no puede asignar búferes
En los kernels anteriores a 5.3, puede que visualice una carga de CPU no deseada durante el procesamiento de paquetes
si habilita AF_XDP en modo nativo y el tamaño del anillo Rx es mayor que la cola de llenado UMEM. Esto se debe a un
problema conocido en el kernel y se solucionó en la versión 5.3. Para solucionar el problema, actualice su kernel a la
versión 5.3 o posterior.
Las descargas de suma de comprobación de SCTP no se indican en el túnel Geneve
En el tfico SCTP a tras de un túnel Geneve, la suma de comprobación de SCTP no se descarga en el dispositivo,
incluso aunque tx-checksum-sctp esté habilitado. Esto se debe a una limitación en el kernel de Linux. Sin embargo, en el
tráfico Rx, la suma de comprobación de SCTP se verifica si rx-checksumming está habilitado. Tanto en el tráfico Tx como en
el tfico Rx, puede descargar la suma de comprobación de UDP externa en el dispositivo.
Velocidad de enlace incorrecta en los controladores de VF más antiguos
Las distribuciones Linux con controladores iavf o i40evf más antiguos (incluido Red Hat Enterprise Linux 8) pueden mostrar
una velocidad de enlace incorrecta en las interfaces de VF. Este problema es superficial y no afecta a la funcionalidad de la
VF. Para solucionar el problema, descargue el controlador iavf más reciente.
Controladores de VF más antiguos en adaptadores basados en la controladora de Ether-
net Intel serie 800
Algunos controladores de VF de Windows* de la versión 22.9 o anteriores pueden producir errores cuando se cargan en
una PF basada en la controladora de Ethernet Intel serie 800 en KVM de Linux. Es posible que aparezcan errores y que la
VF no se cargue. Este problema no ocurre a partir de los siguientes controladores de VF de Windows:
l v40e64, v40e65: versión 1.5.65.0 y posteriores
Para resolver este problema, descargue e instale el controlador iavf más reciente.
Mensaje de error “VF X failed opcode 24” de dmesg en el host
Con una quina invitada de Microsoft Windows Server 2019 que se ejecuta en un host de Linux, puede que visualice un
mensaje de error “VF <número_vf> failed opcode 24de dmesg en el host. Este error es benigno y no afecta al tfico.
Instalar el controlador iavf s reciente en el invitado resolve el problema.
Instalación y configuración del controlador de Linux*
155
Puede que los SO Windows invitados en un host de Linux no pasen el tráfico a través de
las VLAN
La VF no está al tanto de la configuración de VLAN si utiliza equilibrio de carga y migración tras error (LBFO) para
configurar las VLAN en un invitado de Windows. Las VLAN configuradas mediante LBFO en un controlador de VF podrían
generar errores a la hora de transmitir el tfico.
Eventos de MDD en dmesg al crear el máximo número de VLAN en la VF
Al crear un número ximo de VLAN en la VF, puede que visualice eventos de MDD de dmesg en el host. Esto se debe al
diseño asíncrono del controlador iavf. Siempre informa del éxito de cualquier solicitud de VLAN, pero las solicitudes
pueden fallar posteriormente. El SO invitado podría intentar enviar tráfico en una VLAN que no está configurada en la VF, lo
que provocará un evento de detección de controladores maliciosos (MDD) de dmesg en el host.
Este problema es superficial. No es necesario recargar el controlador de PF.
El comando “ip address” o “ip linkmuestra un error en un NIC de un solo puerto con
más de 245 VF
Cuando se utiliza el comando“ip address” o “ip link” en un host de Linux configurado con 245 VF o s en un adaptador de
un solo puerto, se puede producir un error “Buffer too small for object”. Esto se debe a un problema conocido en las
herramientas iproute2. Utilice ifconfig en lugar de iproute2. Puede instalar ifconfig a tras del paquete net-tools-
deprecated.
Instalación y configuración del controlador de Linux*
156
Controlador iavf de Linux
Descripción general de iavf
El controlador i40evf se llama ahora iavf (Intel Adaptive Virtual Function). El objetivo es reducir el impacto en futuras
controladoras de Ethernet Intel. El controlador iavf permite actualizar su hardware sin necesidad de actualizar el controlador
de función virtual en cada una de las máquinas virtuales que se ejecutan sobre el hardware.
Dispositivos compatibles con el controlador base iavf de Linux
Los siguientes adaptadores de red de Intel son compatibles con este controlador:
l Ethernet Intel® 10G 4P X710-k bNDC
l Ethernet Intel® 10G 2P X710-k bNDC
l Ethernet Intel® 10G X710-k bNDC
l Adaptador de red convergente Ethernet Intel® X710
l Adaptador de red convergente Ethernet Intel® X710-T
l Ethernet Intel® 10G 4P X710/l350 rNDC
l Ethernet Intel® 10G 4P X710 SFP+ rNDC
l Ethernet Intel® 10G X710 rNDC
l Adaptador de Ethernet Intel® X710-DA2 para servidores para OCP
l Ethernet Intel® 10G 2P X710 OCP
l Ethernet Intel® 10G 4P X710 OCP
l Ethernet Intel® 10G 2P X710-T2L-t OCP
l Ethernet Intel® 10G 4P X710-T4L-t OCP
l Adaptador de red Ethernet Intel® 10G 2P X710-T2L-t
l Adaptador de red Ethernet Intel® 10G 4P X710-T4L-t
l Adaptador de red Ethernet Intel® 25G 2P XXV710
l Ethernet Intel® 25G 2P XXV710 Mezz
l Ethernet Intel® 25G 2P E810-XXV OCP
l Adaptador de red Ethernet Intel® 25G 2P E810-XXV
l Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
l Adaptador de red convergente Ethernet Intel® XL710-Q2
Compilación e instalación
Para habilitar SR-IOV en su sistema:
1. Aserese de que tanto la virtualización como SR-IOV estén habilitadas en la BIOS.
2. Instale el sistema operativo Linux. Para comprobar si el controlador KVM está cargado, escriba: lsmod | grep -i
kvm
3. Cargue el controlador básico de Linux mediante el comando modprobe: modprobe i40e option max_vfs=xx,yy
xx y yy son elmero de funciones virtuales que desea crear. Debe especificar unmero para cada puerto con
cada pametro separado con una coma. Por ejemplo, xx es elmero de funciones virtuales para el puerto 1;
mientras que yy lo es para el puerto 2. Puede crear hasta 63 funciones por puerto.
4. Compile e instale el controlador iavf para SR-IOV. Este se carga contra las funciones virtuales creadas.
NOTA: para VLAN, hay un límite de 32 VLAN compartidas en total en 1 o más funciones virtuales.
Instalación y configuración del controlador de Linux*
157
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'. Reemplace
<nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del código fuente del kernel instalado. Si acaba de recompilar el
kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/iavf" o "/usr/local/src/iavf".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
# tar zxf iavf-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es elmero de versión del archivo tar del controlador:
# cd iavf-<x.x.x>/src/
4. Compile el módulo del controlador:
# make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/iavf/iavf.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas, Podrían ser diferentes para las
distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se incluye en el
archivo tar del controlador.
5. Elimine el controlador antiguo:
# rmmod iavf
6. Instale el módulo con el comando modprobe:
# modprobe iavf <parámetro>=<valor>
7. Actualice la imagen del sistema:
dracut -f
8. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx> es el
nombre de interfaz:
# ifconfig <ethX> <dirección_IP> netmask <máscara de red> up
9. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
# ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM iavf existentes que haya instalados actualmente en el sistema. Estas actualizaciones son
proporcionadas por SuSE en la versión SLES. Si no hay ninn RPM en el sistema, KMP no se instala.
Instalación y configuración del controlador de Linux*
158
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM incluidos
es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-iavf-1.3.8.6-1.x86_64.rpm:
l iavf es el nombre del componente
l 1.3.8.6-1 es la versión del componente
l x86_64 es el tipo de arquitectura
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM KMP
incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión
del kernel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-iavf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm:
l iavf es el nombre del componente
l default es el tipo de kernel
l 1.3.8.6 es la versión del componente
l 2.6.27.19_5-1 es la versión del kernel
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMP, escriba los dos comandos siguientes:
# rpm -i <nombre de archivo rpm>
# rpm -i <nombre de archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM iavf KMP, escriba lo siguiente:
# rpm -i intel-iavf-1.3.8.6-1.x86_64.rpm
# rpm -i intel-iavf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-iavf-2.3.4-1.x86_64.rpm:
l iavf es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
# rpm -i <nombre de archivo rpm>
Por ejemplo, para instalar el paquete de RPM iavf KMOD, escriba lo siguiente:
# rpm -i kmod-iavf-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
El controlador iavf no admite ningún parámetro de línea de comandos.
Instalación y configuración del controlador de Linux*
159
Configuraciones adicionales
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que se
muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello, escriba lo
siguiente:
# dmesg -n 8
NOTA: esta configuración no se guarda entre reinicios.
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, así como para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool. Descárguela en:
https://kernel.org/pub/software/network/ethtool/
Establecer eliminación de etiquetas VLAN
Si tiene aplicaciones que requieran que las funciones virtuales (VF) reciban paquetes con etiquetas VLAN, puede
deshabilitar la eliminación de etiquetas VLAN para la VF. La función física (PF) procesa solicitudes enviadas desde la VF
para habilitar o deshabilitar la eliminación de etiquetas VLAN. Tenga en cuenta que si la PF ha asignado una VLAN a una
VF, las solicitudes de esa VF para establecer la eliminación de etiquetas VLAN serán ignoradas.
Para habilitar/deshabilitar la eliminación de etiquetas VLAN para una VF, envíe el siguiente comando desde dentro de la
VM en la que está ejecutando la VF:
# ethtool -K <ethX> rxvlan on/off
o alternativamente:
# ethtool --offload <ethX> rxvlan on/off
Compatibilidad con IEEE 802.1ad (QinQ)
El estándar IEEE 802.1ad, conocido informalmente como QinQ, permite múltiples ID de VLAN dentro de una misma trama
de Ethernet. A veces se hace referencia a las ID de VLAN como “etiquetas”, y a múltiples ID de VLAN, por tanto, como “pila
de etiquetas”. Las pilas de etiquetas permiten túneles L2 y la capacidad de segregar tfico dentro de una ID de VLAN en
particular, entre otros usos.
NOTAS:
l 802.1ad (QinQ) es compatible con kernels 3.19 y posteriores.
l Las descargas de sumas de comprobación de recepción y la aceleración de VLAN no son compatibles con
los paquetes de 802.1ad (QinQ).
A continuación se muestran ejemplos de mo configurar 802.1ad (QinQ):
# ip link add link eth0 eth0.24 type vlan proto 802.1ad id 24
# ip link add link eth0.24 eth0.24.371 type vlan proto 802.1Q id 371
Donde “24” y “371” son ID de VLAN de ejemplo.
Colas de dispositivos de aplicación (ADQ)
Las colas de dispositivos de aplicación (ADQ) permiten dedicar una o más colas a una aplicación específica. Esto puede
reducir la latencia de la aplicación especificada y permitir que el tráfico Tx esté limitado por aplicación.
Requisitos:
Instalación y configuración del controlador de Linux*
160
l Versión del kernel 4.19.58 o posterior
l Dependiendo del dispositivo subyacente de la PF, ADQ no se puede habilitar cuando estén habilitadas las
siguientes funciones: Habilitación de puentes de centro de datos (DCB), Varias funciones por puerto (MFP) o Filtros
Sideband.
l Si otro controlador (por ejemplo, DPDK) tiene establecidos filtros de nube, no se puede habilitar ADQ.
Para crear TC en la interfaz:
NOTA: ejecute todos los comandos de TC desde el directorio ../iproute2/tc/.
1. Utilice el comando tc para crear clases de tfico (TC). Puede crear un máximo de 8 TC por interfaz.
# tc qdisc add dev <ethX> root mqprio num_tc <tcs> map <priorities> queues
<count1@offset1 ...> hw 1 mode channel shaper bw_rlimit min_rate <min_rate1 ...>
max_rate <max_rate1 ...>
Donde:
l num_tc <tcs>: elmero de TC que se utilizan.
l map <prioridades>: el mapa de prioridades para las TC. Se pueden asignar hasta 16 prioridades a las TC.
l queues <número1@desplazamiento1 ...>: por cada TC, <número de colas>@<desplazamiento>. Elmero máximo
de colas para todas las TC es elmero decleos.
l hw 1 mode channel: “channel” con “hw” establecido en 1 es un nuevo modo de descarga de hardware en mqprio
que hace un uso completo de las opciones de mqprio, las TC, configuraciones de cola y los pametros de QoS.
l shaper bw_rlimit: para cada TC, establece la velocidad del ancho de bandanima y xima. Los totales deben ser
igual o menores que la velocidad del puerto. Este pametro es opcional y se requiere solo para configurar las tasas
Tx.
l min_rate <velocidad_mín1>: establece el límite de velocidad del ancho de bandanimo de cada TC.
l max_rate <velocidad_máx1 ...>: establece el límite de velocidad del ancho de banda máximo de cada TC. Puede
establecer una velocidadnima y xima a la vez.
NOTA: consulte lagina del manual de mqprio y los ejemplos a continuación para obtener s información.
2. Verifique el límite de ancho de banda con las herramientas de supervisión de redes como ifstat o sar -n DEV [intervalo]
[número de muestras]
NOTA: no se pueden configurar los canales con ethtool (ethtool -L) cuando las TC se configuran mediante mqprio.
3. Habilite descargas de TC de hardware en la interfaz:
# ethtool -K <ethX> hw-tc-offload on
4. Aplique TC al flujo de entrada (Rx) de la interfaz:
# tc qdisc add dev <ethX> ingress
NOTA:
l No se admiten los filtros de túnel en ADQ. Si los paquetes encapsulados llegan en modo no túnel, el filtrado
se ha en las cabeceras interiores. Por ejemplo, para el tfico VXLAN en modo no túnel, si PCTYPE se
identifica como un paquete encapsulado VXLAN, se ignoran las cabeceras exteriores. Por lo tanto, se
emparejan las cabeceras interiores.
l Si un filtro de TC en una PF coincide con el tráfico en una VF (en la PF), ese tfico se dirigi a la cola
apropiada de la PF y no se pasa a la VF. Este tipo de tfico acaba siendo descartado s arriba en la
pila TCP/IP, ya que no coincide con los datos de la dirección de la PF.
l Si el tfico coincide con varios filtros de TC que apuntan a diferentes TC, ese tráfico se duplica y se envia
a todas las colas de TC que coincidan. El conmutador de hardware refleja el paquete a una lista de VSI
cuando coinciden varios filtros.
Ejemplo:
Instalación y configuración del controlador de Linux*
161
NOTA: consulte las páginas del manual de tc y tc-flower para obtener más información sobre el control de tfico y
los filtros de TC flower.
Para configurar 2 TC (tc0 y tc1), con 16 colas cada uno, prioridades 0-3 para tc0 y 4-7 para tc1 y tasa Tx máxima
establecida en 1 Gbit para tc0 y 3 Gbit para tc1:
# tc qdisc add dev ens4f0 root mqprio num_tc 2 map 0 0 0 0 1 1 1 1 queues 16@0 16@16
hw 1 mode channel shaper bw_rlimit max_rate 1Gbit 3Gbit
Donde:
l map 0 0 0 0 1 1 1 1: establece las prioridades 0-3 para usar tc0 y 4-7 para usar tc1
l queues 16@0 16@16: asigna 16 colas a tc0 con desplazamiento 0 y 16 colas a tc1 con desplazamiento 16
Puede agregar múltiples filtros al dispositivo, utilizando la misma rmula (y no requiere recursos de fórmulas adicionales),
bien en la misma interfaz o bien en interfaces diferentes. Cada filtro utiliza los mismos campos para el emparejamiento,
pero pueden tener diferentes valores de coincidencia.
tc filter add dev ethx protocol ip ingress prio 1 flower ip_proto tcp dst_port $app_port skip_sw
hw_tc 1
Por ejemplo:
# tc filter add dev ethx protocol ip ingress prio 1 flower ip_proto tcp dst_port
5555 skip_sw hw_tc 1
Interfaz de gestión de hipervisores de SR-IOV
La siguiente estructura de archivos sysfs es compatible con la interfaz de gestión de hipervisores de SR-IOV.
/sys/class/net/<ethX>/device/sriov (consulte 1 a continuación)
+-- [VF-id, 0 .. 255] (consulte 2 a continuación)
| +-- trunk
| +-- vlan_mirror
| +-- egress_mirror
| +-- ingress_mirror
| +-- mac_anti_spoof
| +-- vlan_anti_spoof
| +-- loopback
| +-- mac
| +-- mac_list
| +-- promisc
| +-- vlan_strip
| +-- stats
| +-- link_state
| +-- max_tx_rate
| +-- min_tx_rate
| +-- spoofcheck
| +-- trust
Instalación y configuración del controlador de Linux*
162
| +-- vlan
NOTAS:
1. El kobject iniciado desde “sriov” no está disponible desde el sysfs del kernel existente y requiere que el
controlador del dispositivo implemente esta interfaz.
2. El número máximo de instancias de SR-IOV es 256. El número real de instancias creadas depende del valor
establecido para /sys/bus/devices/<dirección pci del dispositivo>/sriov_numvfs
Funciones de los hipervisores de SR-IOV:
l trunk
l Admite dos operaciones:
l add: agrega una o más ID de VLAN en el filtrado de VLAN de VF.
l rem: retira ID de VLAN de la lista de filtrado de VLAN de VF.
l Ejemplo 1: agregar varias etiquetas de VLAN, VLAN 2, 4, 5, 10-20, por PF, p1p2, en una VF seleccionada, 1,
para el filtrado, con compatibilidad de sysfs:
# echo add 2,4,5,10-20 > /sys/class/net/p1p2/device/sriov/1/trunk
l Ejemplo 2: retirar VLAN 5, 11-13 de la PF p1p2 VF 1 con sysfs:
# echo rem 5,11-13 > /sys/class/net/p1p2/device/sriov/1/trunk
l Nota: en rem, si la ID de VLAN no está en la lista de filtrado de VLAN, la ID de VLAN será ignorada.
l vlan_mirror
l Admite la duplicación del tfico de entrada y de salida.
l Ejemplo 1: duplicar el tráfico basado en las VLAN 2, 4, 6, 18-22 a la VF 3 de la PF p1p1.
# echo add 2,4,6,18-22 > /sys/class/net/p1p1/device/sriov/3/vlan_mirror
l Ejemplo 2: retirar VLAN 4, 15-17 de la duplicación de tfico en el destino VF 3.
# echo rem 15-17 > /sys/class/net/p1p1/device/sriov/3/vlan_mirror
l Ejemplo 3: retirar todas las VLAN de la duplicación en la VF 3.
# echo rem 0 - 4095> /sys/class/net/p1p1/device/sriov/3/vlan_mirror
l egress_mirror
l Admite la duplicación del tfico de salida.
l Ejemplo 1: agregar duplicación del tfico de salida en la PF p1p2 VF 1 a VF 7.
# echo add 7 > /sys/class/net/p1p2/device/sriov/1/egress_mirror
l Ejemplo 2: retirar duplicación del tráfico de salida en la PF p1p2 VF 1 a VF 7.
# echo rem 7 > /sys/class/net/p1p2/device/sriov/1/egress_mirror
l ingress_mirror
l Admite la duplicación del tfico de entrada.
l Ejemplo 1: duplicar tfico de entrada en la PF p1p2 VF 1 a VF 7.
# echo add 7 > /sys/class/net/p1p2/device/sriov/1/ingress_mirror
l Ejemplo 2: mostrar la configuración actual de duplicación de entrada.
# cat /sys/class/net/p1p2/device/sriov/1/ingress_mirror
l mac_anti_spoof
l Admite la habilitación/deshabilitación de la antisuplantación de MAC. Permite a las VF transmitir paquetes
con cualquier MAC de SRC, lo que es necesario para algunas aplicaciones L2, acomo para la vinculación
de vNIC dentro de las VM si se establece en OFF.
l Ejemplo 1: habilitar la antisuplantación de MAC para la PF p2p1 VF 1.
# echo ON /sys/class/net/p1p2/device/sriov/1/mac_anti_spoof
l Ejemplo 2: deshabilitar la antisuplantación de MAC para la PF p2p1 VF 1.
# echo OFF /sys/class/net/p1p2/device/sriov/1/mac_anti_spoof
l vlan_anti_spoof
l Admite la habilitación/deshabilitación de la antisuplantación de VLAN. Permite que las VF transmitan
paquetes solo con la etiqueta de VLAN especificada en la configuración “trunk”. Ades, no permitirá
transmitir paquetes “no etiquetados” si se establece en ON. La infracción tiene que incrementar el contador
de estadísticas tx_spoof.
l Ejemplo 1: habilitar la antisuplantación de VLAN para la PF p2p1 VF 1.
# echo ON /sys/class/net/p1p2/device/sriov/1/vlan_anti_spoof
l Ejemplo 2: deshabilitar la antisuplantación de VLAN para la PF p2p1 VF 1.
# echo OFF /sys/class/net/p1p2/device/sriov/1/vlan_anti_spoof
Instalación y configuración del controlador de Linux*
163
l loopback
l Admite la habilitación/deshabilitación de VEB/VEPA (bucle de retorno local).
l Ejemplo 1: permitir el intercambio de tráfico entre VF de la misma PF.
# echo ON > /sys/class/net/p1p2/device/sriov/loopback
l Ejemplo 2: enviar tfico de horquilla al conmutador al que está conectada la PF.
# echo OFF > /sys/class/net/p1p2/device/sriov/loopback
l Ejemplo 3: mostrar la configuración del bucle de retorno.
# cat /sys/class/net/p1p2/device/sriov/loopback
l mac
l Admite la configuración de la dirección MAC predeterminada. Si la dirección MAC se establece mediante
este comando, la PF no permiti a la VF cambiarla mediante una solicitud de MBOX.
l Ejemplo 1: configurar la dirección MAC predeterminada en VF 1.
# echo "00:11:22:33:44:55" > /sys/class/net/p1p2/device/sriov/1/mac
l Ejemplo 2: mostrar la dirección MAC predeterminada.
# cat /sys/class/net/p1p2/device/sriov/1/mac
l mac_list
l Admite la agregación de MAC adicionales a la VF. La dirección MAC predeterminada se obtiene de “ip link
set p1p2 vf 1 mac 00:11:22:33:44:55” si está configurado. En caso contrario, el NIC asigna una dirección
aleatoria a la VF. Si la dirección MAC se configura con el comando IP LINK, la VF no puede cambiarla
mediante solicitudes de MBOX/AdminQ.
l Ejemplo 1: agregar la mac 00:11:22:33:44:55 and 00:66:55:44:33:22 a la PF p1p2 VF 1.
# echo add "00:11:22:33:44:55,00:66:55:44:33:22" >
/sys/class/net/p1p2/device/sriov/1/mac_list
l Ejemplo 2: eliminar la mac 00:11:22:33:44:55 del dispositivo VF anterior.
# echo rem 00:11:22:33:44:55 > /sys/class/net/p1p2/device/sriov/1/mac_list
l Ejemplo 3: mostrar una lista de direcciones MAC de la VF.
# cat /sys/class/net/p1p2/device/sriov/1/mac_list
l promisc
l Admite la activación/desactivación del modo promiscuo de unidifusión y del modo promiscuo de
multidifusión del dispositivo VF.
l Ejemplo 1: activar el modo promiscuo de multidifusión en la PF p1p2 VF 1.
# echo add mcast > /sys/class/net/p1p2/device/sriov/1/promisc
l Ejemplo 2: activar el modo promiscuo de unidifusión en la PF p1p2 VF 1.
# echo add ucast > /sys/class/net/p1p2/device/sriov/1/promisc
l Ejemplo 3: desactivar el modo promiscuo de multidifusión en la PF p1p2 VF 1.
# echo rem mcast > /sys/class/net/p1p2/device/sriov/1/promisc
l Ejemplo 4: mostrar configuración actual del modo promiscuo.
# cat /sys/class/net/p1p2/device/sriov/1/promisc
l vlan_strip
l Admite la habilitación/deshabilitación de la eliminación de VLAN externa del dispositivo de VF.
l Ejemplo 1: habilitar la eliminación de VLAN en la VF 3.
# echo ON > /sys/class/net/p1p1/device/sriov/3/vlan_strip
l Ejemplo 2: deshabilitar la eliminación de VLAN en la VF 3.
# echo OFF > /sys/class/net/p1p1/device/sriov/3/vlan_strip
l stats
l Admite la obtención de estadísticas de VF.
l Ejemplo 1: mostrar estadísticas de VF 1.
# cat /sys/class/net/p1p2/device/sriov/1/stats
l link_state
l Establece/muestra el estado del enlace.
l Ejemplo 1: mostrar estado del enlace en la velocidad de enlace.
# cat /sys/class/net/p1p2/device/sriov/1/link_state
l Ejemplo 2: establecer VF 1 para realizar el seguimiento del estado del enlace de la PF.
# echo auto > /sys/class/net/p1p2/device/sriov/1/link_state
l Ejemplo 3: deshabilitar VF 1.
# echo disable > /sys/class/net/p1p2/device/sriov/1/link_state
Instalación y configuración del controlador de Linux*
164
Problemas conocidos
Problemas de software
NOTA: desps de instalar el controlador, si su conexión de red Ethernet Intel® no funciona, compruebe que ha
instalado el controlador correcto.
La vinculación de Linux falla con las funciones virtuales vinculadas a un dispositivo
basado en la controladora de Ethernet Intel® serie 700
Si vincula funciones virtuales (VF) a un dispositivo basado en la controladora de Ethernet Intel® serie 700, los
subordinados de la VF pueden fallar cuando se convierten en el subordinado activo. Si la dirección MAC de la VF está
configurada por la PF (función física) del dispositivo, cuando se agrega un subordinado, o se cambia el subordinado de
respaldo activo, la vinculación de Linux intenta sincronizar la dirección MAC del subordinado de respaldo con la misma
dirección MAC del subordinado activo. La vinculación de Linux falla en este punto. El problema no se produci si la
dirección MAC de la VF no está configurada por la PF.
El tráfico no está pasando entre la VM y el cliente
Es posible que no pueda pasar tfico entre un sistema cliente y una quina virtual (VM) que se ejecuta en un host
separado si la función virtual (VF o NIC virtual) no está en modo de confianza y la comprobación de suplantación de
identidad está habilitada en la VF. Tenga en cuenta que esta situación puede ocurrir en cualquier combinación de cliente,
host y sistema operativo invitado. Consulte elame del controlador de PF para obtener información sobre la
comprobación de suplantación de identidad y cómo poner la VF en modo de confianza.
No descargue el controlador de puerto si hay una VF con una VM activa enlazada a este
NOTA: no descargue el controlador de un puerto si hay una función virtual (VF) con una máquina virtual (VM) activa
enlazada a este. Esto ha que el puerto parezca que se bloquea. Una vez que la máquina virtual se apaga, o bien
libera la VF de cualquier otra manera, el comando se completará.
El uso de cuatro clases de tráfico falla
No trate de reservar más de tres clases de tfico en eliavfcontrolador. Si lo hace, no podrá establecer ninguna clase de
tráfico y ha que el controlador escriba errores en stdout. Utilice un máximo de tres colas para evitar este problema.
Múltiples mensajes de error de registro al retirar el controlador iavf
Si tiene varias VF y retira el controlador iavf, se escriben varias instancias de los siguientes errores de registro en el
registro:
Unable to send opcode 2 to PF, err I40E_ERR_QUEUE_EMPTY, aq_err ok
Unable to send the message to VF 2 aq_err 12
ARQ Overflow Error detected
La máquina virtual no obtiene el enlace
Si la máquina virtual tiene más de un puerto virtual asignado, y esos puertos virtuales están vinculados a diferentes puertos
sicos, puede que no obtenga el enlace en todos los puertos virtuales. El comando siguiente puede solucionar el problema:
# ethtool -r <ethX>
Donde <ethX> es la interfaz de PF en el host, por ejemplo: p5p1. Puede que necesite ejecutar el comando más de una vez
para obtener enlace en todos los puertos virtuales.
Instalación y configuración del controlador de Linux*
165
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza una
dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el controlador de la
VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática sobrevivi a una recarga del
controlador de la VF.
Compilación del controlador
Es probable que se produzca el error siguiente cuando intente compilar el controlador mediante la ejecución de make
install: "Linux kernel source not configured - missing version.h" (No se configuró el código fuente del kernel Linux, falta
version.h).
Para resolver este problema, cree el archivo version.h. Para ello, vaya al árbol de origen de Linux y escriba:
# make include/linux/version.h
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
# echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda entre reinicios. El cambio de configuración puede hacerse permanente si
agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores diferentes o
en un conmutador con particiones para VLAN).
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores. Estos errores son provocados por la forma
en que el kernel de Linux informa estas condiciones de mucha exigencia.
Puede que el host se reinicie tras quitar la PF si la VF está activa en el invitado
Si se utilizan versiones de kernel anteriores a 3.2, no descarge el controlador de PF con VF activas. De lo contrario, las VF
dejan de funcionar hasta que recargue el controlador de PF y puede producirse un reinicio espontáneo del sistema.
Antes de descargar el controlador de la PF, primero debe asegurarse de que las VF ya no están activas. Para ello, cierre
todas las VM y descargue el controlador de la VF.
Las funciones virtuales de SR-IOV tienen direcciones MAC idénticas en RHEL8
Cuando se crean varias funciones virtuales de SR-IOV en Red Hat Enterprise Linux 8, las VF pueden tener direcciones
MAC idénticas. Solo una VF pasa el tráfico; el resto de tráfico de otras VF con direcciones MAC idénticas fallará. Esto está
relacionado con la opción “MACAddressPolicy=persistent” en /usr/lib/systemd/network/99-default.link.
Para solucionar este problema, edite el archivo /usr/lib/systemd/network/99-default.link y cambie la línea MACAddressPolicy
a “MACAddressPolicy=none”. Consulte la documentación de systemd para obtener más información.
Controladores de VMware ESX y compatibilidad
166
Controladores de VMware ESX y compatibilidad
Tipos de controladores
Intel proporciona los siguientes tipos de controladores para VMware ESX:
l Los controladores en modo nativo son el controlador por defecto para el entorno de VMware ESX. Son impulsados
por interrupciones y desarrollados mediante la API de modo nativo de VMware.
l Los controladores de pila de red mejorada (ENS) están pensados para su uso en implementaciones de VMware
NSX-T. Estos controladores son controladores de modo de sondeo.
l Los controladores unificados admiten el funcionamiento en modo de interrupción y de sondeo. En función del
modelo de implementación, el controlador utiliza automáticamente el modo adecuado.
Esta versión contiene los siguientes controladores nativos, ENS y unificados:
Controlador Familia de dispositivos ESXi 6.7 U3 ESXi 7.0 U1
icen Dispositivos con controladora de Ethernet Intel® serie 800 Unificado Unificado
i40en Dispositivos con controladora de Ethernet Intel® serie 700 Nativo, ENS Nativo, ENS
ixgben Dispositivos con controladora de Ethernet Intel® serie X550
Dispositivos con controladora de Ethernet Intel® serie X540
Dispositivos con controladora de Ethernet Intel® serie X520
Nativo, ENS Nativo, ENS
igbn Dispositivos con controladora de Ethernet Intel® serie X540 Nativo Nativo
Puede comprobar la compatibilidad de su hardware en http://www.vmware.com/resources/compatibility/search.php.
Instalación y configuración
Para obtener información detallada sobre la instalación, consulte los archivos Léame y las notas de la versión incluidas con
el controlador.
Para obtener información sobre la configuración de VMware ENS, consulte la documentación de VMware en los temas de
pila de red mejorada (ENS) o ruta de datos mejorada. Para utilizar un controlador compatible con Intel ENS, debe instalar
VMware NSX-T en el sistema que aloje los adaptadores. A continuación, debe utilizarse el administrador de NSX de
VMware para crear conmutadores lógicos y adjuntar controladores compatibles con ENS a los puertos del adaptador.
NOTA: para instalar el controlador ENS, primero debe instalar el controlador nativo. Debe dejar instalado el
controlador nativo para que el controlador ENS funcione.
167
Arranque remoto
El arranque remoto permite arrancar un sistema solo con un adaptador de Ethernet. Puede conectarse a un servidor que
contenga una imagen del sistema operativo y utilizarlo para arrancar su sistema local.
Imágenes flash
"Flash" es un término genérico para la RAM no volátil (NVRAM), el firmware y el componente opcional de ROM (OROM). En
función del dispositivo, puede estar en la NIC o en la placa del sistema.
NOTA: no se puede actualizar la flash de un dispositivo en estado “Pending Reboot” (Pendiente de reinicio).
Reinicie el sistema antes de intentar actualizar la imagen flash del dispositivo.
Actualizacn de la memoria flash desde Linux
La utilidad de línea de comandos BootUtil puede actualizar la memoria flash en un adaptador de red Ethernet Intel. Ejecute
bootutil.efi con las siguientes opciones de línea de comandos para actualizar la memoria flash en todos los adaptadores de
red Intel compatibles. Por ejemplo, introduzca la siguiente línea de comandos:
bootutil64e –up=efi –all
BootUtil solo puede utilizarse para programar adaptadores de red Intel complementarios. No es posible programar
conexiones de red LOM (LAN On Motherboard, LAN en placa madre) con la ROM opcional del controlador de red UEFI.
Consulte el archivo bootutil.txt para obtener más información sobre la utilización de BootUtil.
Instalación de la ROM opcional del controlador de red UEFI desde la shell
UEFI
La utilidad de línea de comandos BootUtil puede instalar el controlador de red UEFI en la ROM opcional de un adaptador
de red Intel. El controlador de red UEFI se carga automáticamente durante el inicio UEFI del sistema si está instalado en
la ROM opcional. Por ejemplo, ejecute BootUtil con las siguientes opciones de línea de comandos para instalar el
controlador de red UEFI en todos los adaptadores de red Intel compatibles:
FS0:\>bootutil64e –up=efi –all
BootUtil solo puede utilizarse para programar adaptadores de red Ethernet complementarios Intel. No es posible programar
conexiones de red LOM (LAN On Motherboard, LAN en placa madre) con la ROM opcional del controlador de red UEFI.
Consulte el archivo bootutil.txt para obtener más información sobre la utilización de BootUtil.
Permitir arranque remoto
Si tiene un adaptador Intel de sobremesa instalado en su equipo cliente, el dispositivo ROM flash ya está disponible en su
adaptador y no es necesaria ninguna instalación adicional. Para los adaptadores Intel, la memoria ROM flash puede
habilitarse con la utilidad BootUtil. Por ejemplo, escriba en la línea de comandos:
BOOTUTIL -E
BOOTUTIL -NIC=1 -FLASHENABLE
La primera línea enumera los puertos disponibles en el sistema. Seleccione un puerto. A continuación, escriba la
segunda línea, seleccionando el puerto que desee habilitar. Para obtener s información, consulte el archivo bootutil.txt.
Arranque remoto
168
Adaptadores Intel en el menú de inicio
La sección Menú de inicio del Administrador de inicio indicará los puertos habilitados para PXE en un adaptador Intel
basado en X710 como puertos 40G, como se muestra en la figura siguiente. Los puertos de un adaptador X710 son, de
hecho, puertos 10G.
En el Menú de inicio del Administrador de inicio, los adaptadores Intel se identifican de la forma siguiente:
l Adaptadores controlados por X710: "IBA 40G"
l Otros adaptadores 10G: "IBA XE"
l Adaptadores 1G: "IBA 1G"
Configuración de Intel® Boot Agent
Configuracn del cliente de Boot Agent
Boot Agent se activa y se configura desde HII.
PRECAUCIÓN: si se encuentra habilitado el Protocolo de árbol de expansión (spanning tree protocol) en un
puerto de conmutador a través del cual un puerto intenta usar PXE, el retraso que se produce antes de que el
puerto empiece a enviar paquetes podría causar que se agote el tiempo de espera de DHCP. Debe
deshabilitar el árbol de expansión (spanning tree) o bien activar la función que permite que el puerto empiece
Arranque remoto
169
a enviar paquetes inmediatamente ('port fast learning' en los conmutadores Cisco), en lugar de esperar hasta
que se complete la detección del árbol de expansión (spanning tree).
Configuracn de destino/servidor de Intel Boot Agent
Visión general
Para que el software Intel® Boot Agent realice el trabajo para el que se ha concebido, debe configurarse un servidor en la
misma red que el equipo cliente. Dicho servidor debe reconocer y responder a los protocolos de inicio PXE o BOOTP que
utiliza el software Intel Boot Agent.
NOTA: cuando se instala el software Intel Boot Agent como actualización de una versión previa de ROM de inicio, es
posible que el software asociado con el servidor no sea compatible con el Intel Boot Agent actualizado.
Comuníquese con el administrador de sistemas para determinar si es necesario realizar actualizaciones en el
servidor.
Configuración del servidor Linux*
Consulte al proveedor de Linux* para obtener información acerca de cómo configurar el servidor Linux.
Windows* Deployment Services (Servicios de implementación de Windows*)
Lo único necesario son los archivos de controlador estándar que se proporcionan en el material multimedia. Microsoft*
tiene la propiedad del proceso y las instrucciones asociadas de Windows Deployment Services. Para obtener s
información sobre Windows Deployment Services, realice una búsqueda de artículos de Microsoft en:
http://technet.microsoft.com/en-us/library/default.aspx
Mensajes de Intel® Boot Agent
Texto del mensaje Motivo
Invalid PMM function number
(Número no lido de función
PMM).
PMM no está instalado o no funciona correctamente. Intente actualizar el BIOS.
PMM allocation error (Error de
asignación de PMM).
PMM no pudo o no asig la cantidad de memoria solicitada para el uso del
controlador.
Option ROM ini-tialization error
(Error de inicialización de ROM
opcional). 64-bit PCI BAR
addresses not supported, AX=
(No se admiten direcciones BAR
de PCI de 64 bits, AX=)
Esto es debido a la asignación de un registro de direcciones base (BAR) de 64 bit
al puerto de red por parte del sistema BIOS. Ejecutar la utilidad BootUtil con la
opción de la línea de comandos -64d puede solucionar este problema.
Para solucionar este problema en adaptadores basados en Ethernet Intel® X710 o
XL710 debe desactivar NPar y NParEP. También puede poner el sistema en modo
de inicio de UEFI.
PXE-E00: This system does not
have enough free conventional
memory (Este sistema no tiene
suficiente memoria convencional
libre). The Intel Boot Agent
cannot continue (Intel Boot Agent
no puede continuar).
El sistema no tiene suficiente memoria para ejecutar la imagen PXE. Intel Boot
Agent no pudo encontrar suficiente memoria base disponible (por debajo de 640 K)
para instalar el software de cliente PXE. El sistema no puede iniciarse mediante
PXE con la configuración actual. El error devuelve el control al BIOS y el sistema no
intenta el inicio remoto. Si persiste este error, intente actualizar el BIOS del sistema
a la versión s reciente. Póngase en contacto con el administrador del sistema o
con la asistencia al cliente del distribuidor del sistema para solucionar este
problema.
Arranque remoto
170
PXE-E01: PCI Vendor and
Device IDs do not match! (El
proveedor PCI y el ID del
dispositivo no concuerdan).
El proveedor de la imagen y la identificación del dispositivo no coinciden con los
que se encuentran en la tarjeta. Compruebe que la imagen flash adecuada está
instalada en el adaptador.
PXE-E04: Error reading PCI
configuration space (Error de
lectura del espacio de
configuración). The Intel Boot
Agent cannot continue (Intel Boot
Agent no puede continuar).
El espacio de configuración PCI no se pudo leer. Probablemente la quina no es
compatible con PCI. Intel Boot Agent no pudo leer uno o varios de los registros de
configuración PCI del adaptador. Puede que el adaptador esté mal configurado o
que tenga instalada una imagen incorrecta de Intel Boot Agent. Intel Boot Agent
devolverá el control al BIOS y no intenta el inicio remoto. Intente actualizar la
imagen de la memoria Flash. Si esto no resuelve el problema, póngase en contacto
con el administrador del sistema o con la Asistencia al cliente de Intel.
PXE-E05: The LAN adapter's
configuration is corrupted or has
not been initialized. (PXE-E05:
La configuración del adaptador
LAN está dañada o no se ha
inicializado). The Intel Boot Agent
cannot continue (Intel Boot Agent
no puede continuar).
La EEPROM del adaptador está dañada. Intel Boot Agent ha determinado que la
suma de comprobación de la EEPROM del adaptador es incorrecta. El agente
devolverá el control al BIOS y no intenta el inicio remoto. Intente actualizar la
imagen de la memoria Flash. Si esto no resuelve el problema, póngase en contacto
con el administrador del sistema o con la Asistencia al cliente de Intel.
PXE-E06: Option ROM requires
DDIM support (La ROM de
opción requiere la admisión de
DDIM).
El sistema BIOS no es compatible con DDIM. El BIOS no es compatible con la
asignación de las ROM de ampliación PCI en la memoria superior, tal como lo
requiere la especificación PCI. Intel Boot Agent no puede funcionar en este sistema.
Intel Boot Agent devuelve el control al BIOS y no intenta el inicio remoto. Qui
pueda solucionar el problema actualizando el BIOS del sistema. Si esto no
soluciona el problema, póngase en contacto con el administrador del sistema o con
la asistencia al cliente del distribuidor del sistema para solucionarlo.
PXE-E07: PCI BIOS calls not
supported (No se admiten las
llamadas PCI BIOS).
Los servicios PCI del nivel BIOS no están disponibles. Probablemente la máquina
no es compatible con PCI.
PXE-E09: Unexpected UNDI
loader error (Error inesperado
del cargador de UNDI). Status ==
xx (Estado == xx)
El cargador UNDI ha devuelto un estado de error desconocido. xx es el estado
devuelto.
PXE-E0C: Firmware recovery
mode detected (PXE-E0C: Modo
de recuperación de firmware
detectado) Fallo de inicialización.
El adaptador está en el modo de recuperación de firmware. Consulte la sección
"Modo de recuperación de firmware" de este documento para obtener más
información.
PXE-E20: BIOS extended
memory copy error (Error de
copia de memoria ampliada
BIOS).
BIOS no pudo mover la imagen a la memoria ampliada.
PXE-E20: BIOS extended
memory copy error (Error de
copia de memoria ampliada
BIOS). AH == xx
El error se produjo mientras se intentaba copiar la imagen a la memoria ampliada.
xx es el digo de fallos de BIOS.
PXE-E51: No DHCP or BOOTP Intel Boot Agent no recibió ninguna respuesta de DHCP o BOOTP a su solicitud
Arranque remoto
171
offers received (No se recibieron
ofertas de DHCP o BOOTP).
inicial. Asegúrese de que el servidor DHCP (o el servidor proxyDHCP si uno está
en uso) está configurado correctamente y tiene suficientes direcciones IP para
asignar. Si por el contrario está utilizando BOOTP, asegúrese de que el servicio
BOOTP se esté ejecutando y que está configurado correctamente.
PXE-E53: No boot filename
received (No se recibió el
nombre del archivo de inicio).
Intel Boot Agent recib una oferta de DHCP o BOOTP, pero no ha recibido un
nombre de archivo válido para descargar. Si está utilizando PXE, verifique la
configuración de PXE y BINL. Si está utilizando BOOTP, aserese de que el
servicio esté en ejecución y que la ruta específica y el nombre de archivo son
correctos.
PXE-E61: Media test failure
(Error de prueba de medio).
El adaptador no detecta un enlace. Asegúrese de que el cable funciona y que está
conectado a un concentrador o conmutador que funciona. La luz de conexión que
se ve desde la parte posterior del adaptador debe estar encendida.
PXE-EC1: Base-code ROM ID
structure was not found (No se
encontró la estructura de ID de
ROM de código base).
No se pudo ubicar un código base. Se instaló una imagen de memoria Flash
incorrecta o la imagen está dañada. Intente actualizar la imagen de la memoria
Flash.
PXE-EC3: BC ROM ID structure
is invalid (La estructura de ID de
BC ROM no es válida).
No se pudo instalar el código base. Se insta una imagen de memoria Flash
incorrecta o la imagen está dañada. Intente actualizar la imagen de la memoria
Flash.
PXE-EC4: UNDI ID structure was
not found (No se encontró la
estructura de ID de UNDI).
La firma de la estructura de ID de ROM UNDI es incorrecta. Se instaló una imagen
de memoria Flash incorrecta o la imagen está dañada. Intente actualizar la imagen
de la memoria Flash.
PXE-EC5: UNDI ROM structure is
invalid (La estructura de ID de
UNDI ROM no es válida).
La longitud de la estructura es incorrecta. Se instaló una imagen de memoria Flash
incorrecta o la imagen está dañada. Intente actualizar la imagen de la memoria
Flash.
PXE-EC6: UNDI driver image is
invalid (La imagen del
controlador UNDI no es válida).
La firma de la imagen del controlador UNDI no es válida. Se instaló una imagen de
memoria Flash incorrecta o la imagen está dañada. Intente actualizar la imagen de
la memoria Flash.
PXE-EC8: !PXE structure was not
found in UNDI driver code
segment (La estructura !PXE no
se encontró en el segmento de
código del controlador UNDI).
Intel Boot Agent no pudo ubicar el recurso de estructura !PXE necesario. Se instaló
una imagen de memoria Flash incorrecta o la imagen está dañada. Intente
actualizar la imagen de la memoria Flash.
La causa puede ser la asignación de un registro de direcciones base (BAR) de 64
bit al puerto de red por parte del sistema BIOS. Ejecutar la utilidad BootUtil con la
opción de la línea de comandos -64d puede solucionar este problema.
PXE-EC9: PXENV + structure
was not found in UNDI driver
code segment (La estructura
PXENV+ no se encontró en el
segmento de digo del
controlador UNDI).
Intel Boot Agent no pudo ubicar la estructura PXENV+ necesaria. Se instaló una
imagen de memoria Flash incorrecta o la imagen está dañada. Intente actualizar la
imagen de la memoria Flash.
PXE-M0F: Exiting Intel Boot
Agent (Saliendo de Intel Boot
Agent.)
Ending execution of the ROM image (Finaliza la ejecución de la imagen ROM).
Arranque remoto
172
This option has been locked and
cannot be changed (Esta opción
está bloqueada y no puede
cambiarse).
Ha intentado cambiar los valores de configuración que han sido bloqueados por el
administrador del sistema. Este mensaje puede aparecer tanto desde la ficha
Opciones de inicio de Intel® PROSet cuando se encuentra en Windows*, como
desde el menú de configuración en un entorno autónomo. Si cree que debea
poder cambiar esta opción, consulte al administrador del sistema.
PXE-M0E: Retrying network boot,
press ESC to cancel
(Reintentando el inicio de red,
pulse ESC para cancelar).
Intel Boot Agent no pudo completar el inicio de red debido a un error de red (tal
como no recibir una oferta DHCP). Intel Boot Agent continua intentando iniciar
desde la red hasta que lo consiga o hasta que el usuario lo cancele. Esta función
está deshabilitada de forma predeterminada. Para obtener información sobre la
habilitación de esta función, comuníquese con la Asistencia al cliente de Intel.
Procedimientos de resolucn de problemas de Intel Boot Agent
Aspectos comunes
La siguiente lista de problemas y las soluciones asociadas abarcan un grupo representativo de problemas que puede
encontrar al utilizar Intel Boot Agent.
Mi equipo tiene problemas después de iniciarse
Después de que el producto Intel® Boot Agent haya terminado su tarea (inicio remoto), ya no tiene ningún efecto sobre el
funcionamiento del equipo cliente. En consecuencia, es muy factible que cualquier aspecto que surja después de haber
completado el proceso de inicio no esté relacionado con el producto Intel Boot Agent.
Si tiene problemas con el sistema operativo local (del cliente) o de red, póngase en contacto con el fabricante del sistema si
necesita ayuda. Si tiene problemas con alguna aplicación, póngase en contacto con el fabricante de la misma si necesita
ayuda. Si tiene problemas con aln componente de hardware del equipo o con el BIOS, póngase en contacto con el
fabricante del equipo para obtener ayuda.
No se puede cambiar el orden de inicio
Si está acostumbrado a cambiar la definición del orden de inicio del sistema mediante el programa de configuración del
BIOS de la placa madre, las opciones predeterminadas del programa de configuración de Intel Boot Agent podrían tener
precedencia sobre esta configuración. Para cambiar la secuencia de inicio, primero debe cambiar los valores por defecto
del programa de configuración de Intel Boot Agent. Aparece un menú de configuración, que le permite establecer los
valores de configuración de Intel Boot Agent. Para cambiar la configuración del orden de inicio del equipo, consulte la
sección Configuración del Boot Agent en un entorno PXE previo al inicio.
Mi equipo no completa la secuencia POST
Si el equipo no se inicia con un adaptador instalado pero lo hace cuando extrae el adaptador, traslade el adaptador a
otro equipo y use BootUtil para deshabilitar la ROM flash.
Si esto no funciona, posiblemente el problema se produce antes de que el software Intel Boot Agent comience a funcionar.
Si es así, es posible que exista un problema de BIOS en el sistema. ngase en contacto con el grupo de asistencia al
cliente del fabricante del equipo para obtener ayuda y corregir el problema.
Existen problemas de configuración u operación en el proceso de inicio
Si el cliente PXE recibe una dirección DHCP pero falla en el inicio, esto significa que el cliente PXE funciona correctamente.
Revise la configuración de la red o del servidor PXE para resolver el problema. ngase en contacto con la Asistencia al
cliente de Intel si necesita ayuda adicional.
La ROM opcional PXE no sigue la especificación PXE con respecto al ciclo final de detección
Para evitar largos periodos de espera, la ROM opcional ya no incluye el ciclo final de detección de 32 segundos. Si no ha
habido respuesta en el ciclo de 16 segundos previo, es muy probable que tampoco la haya durante el ciclo final de 32
segundos.
Arranque remoto
173
Problemas conocidos
Numeración incorrecta de los puertos en el menú Boot Options (Opciones de arranque)
En ciertas plataformas, algunas entradas de dispositivos en el menú Boot Options (Opciones de arranque) de la ROM
opcional de PXE heredada están preagregadas con información idéntica del número de puerto (la primera parte de la
cadena que proviene de la BIOS). No se trata de un problema de la ROM opcional. La primera ROM opcional de dispositivo
que se inicia en una plataforma expone todas las opciones de arranque del dispositivo. Esto es malinterpretado por la
BIOS. La segunda parte de la cadena de la ROM opcional indica los números de ranura (puerto) correctos.
Configuración de Arranque iSCSI
Instalación de iniciador de iSCSI
Configuración de Arranque iSCSI de Ethernet Intel
®
en un iniciador de cliente de Micro-
soft* Windows*
Requisitos
1. Aserese de que el sistema iniciador de iSCSI inicie el firmware de iSCSI Boot. El firmware debe configurarse de
forma debida y debe tener capacidad para conectarse al destino de iSCSI y detectar el disco de inicio.
2. Necesitará el Iniciador iSCSI de Microsoft* con soporte de inicio de software integrado. Esta versión de inicio del
iniciador está disponible aquí.
3. Para habilitar la función de volcado de bloqueo, siga los pasos indicados en Compatibilidad con volcado de
bloqueo.
Configuración de Arranque iSCSI de Ethernet Intel
®
en un iniciador de cliente Linux*
1. Instale las utilidades del iniciador de Open-iSCSI.
#yum -y install iscsi-inititator-utils
2. Consulte el archivo README en https://github.com/mikechristie/open-iscsi.
3. Configure su conjunto iSCSI para permitir el acceso.
a. Examine /etc/iscsi/initiatorname.iscsi para comprobar el nombre del iniciador de host de Linux.
b. Actualice el administrador de volumen con este nombre de iniciador de host.
4. Establezca iscsi para que se inicie en el arranque.
#chkconfig iscscd on
#chkconfig iscsi on
5. Inicie el servicio iSCSI (192.168.x.x es la dirección IP de su destino).
#iscsiadm -n discovery -t s -p 192.168.x.x
Observe los nombres de destino que devuelve la detección de iscsi.
6. Inicie sesión en el destino (-m XXX -T is XXX -l XXX -).
iscsiadm -m node -T iqn.2123-01.com:yada:yada: -p 192.168.2.124 -l
Configuración de POST de iSCSI Boot
El Arranque iSCSI de Ethernet Intel® incluye un menú de configuración que permite que dos puertos de red de un sistema
se habiliten como dispositivos de iSCSI Boot. Para configurar Intel® iSCSI Boot, encienda o restablezca el sistema y
presione las teclas Ctrl-D cuando aparezca el mensaje "Press <Ctrl-D> to run setup..." (Pulse <Ctrl-D> para
ejecutar la configuración). Tras pulsar las teclas Ctrl-D, se abrirá el menú Intel® iSCSI Boot Port Selection Setup
(Configuración de selección de puerto de Intel® iSCSI Boot).
Arranque remoto
174
NOTA: al iniciar un sistema operativo desde un disco local, el Arranque iSCSI de Ethernet Intel® debe deshabilitarse
para todos los puertos de red.
Menú de selección de puerto de Arranque iSCSI de Ethernet Inte
La primera pantalla del menú Intel® iSCSI Boot Setup (Configuración de Intel® iSCSI Boot) muestra una lista de los
adaptadores que admiten Intel® iSCSI Boot. Se muestra el ID de dispositivo PCI, la ubicación del bus, el dispositivo y la
función PCI, y un campo que indica el estado del Arranque iSCSI de Ethernet Intel® para cada uno de los puertos de
adaptador. Se pueden visualizar hasta 10 puertos con capacidad para iSCSI Boot en el menú Port Selection (Selección de
puerto). Si existen más adaptadores con capacidad para Intel® iSCSI Boot, no figuran en el menú de configuración.
El uso de este menú se describe a continuación:
l Para seleccionar un puerto de red del sistema como el puerto de inicio primario, presione la tecla 'P' tras resaltarlo.
El puerto de inicio primario es el primer puerto que Intel® iSCSI Boot utiliza para la conexión con el destino de
iSCSI. Solamente se puede seleccionar un puerto como el puerto de inicio primario.
l Para seleccionar un puerto de red del sistema como el puerto de inicio secundario, presione la tecla 'S' tras
resaltarlo. El puerto de inicio secundario solamente se usa para la conexión con el destino de iSCSI si el puerto de
inicio primario no logra establecer una conexión. Solamente se puede seleccionar un puerto como el puerto de
inicio secundario.
l Si pulsa la tecla 'D' con un puerto de red resaltado, se deshabilita el Arranque iSCSI de Ethernet Intel® en ese
puerto.
l Si pulsa la tecla 'B' con un puerto de red resaltado, se hará parpadear un LED en ese puerto.
l Pulse la tecla Esc para salir de la pantalla.
Arranque remoto
175
Menú de configuración específica de puerto de Arranque iSCSI de Ethernet Inte
El menú de configuración de iSCSI específica de puerto tiene cuatro opciones:
l Intel® iSCSI Boot Configuration (Configuración de inicio de Intel® iSCSI): si selecciona esta opción, regresará al
menú iSCSI Boot Configuration Setup (Configuración de iSCSI Boot). El menú iSCSI Boot Configuration se describe
de forma detallada en la sección siguiente y le permiti configurar los parámetros de iSCSI para el puerto de red
seleccionado.
l CHAP Configuration (Configuración de CHAP): si se selecciona esta opción se abre la pantalla CHAP
Configuration (Configuración de CHAP). El menú CHAP Configuration se describe en detalle en la sección
siguiente.
l Discard Changes and Exit (Descartar cambios y salir): si se selecciona esta opción, se descartan todos los cambios
realizados en las pantallas de configuración iSCSI Boot Configuration (Configuración de iSCSI Boot) y CHAP
Configuration (Configuración de CHAP), y volverá al menú iSCSI Boot Port Selection (Selección de puerto de iSCSI
Boot).
l Save Changes and Exit (Guardar cambios y salir): si selecciona esta opción, todos los cambios realizados en las
pantallas de configuración iSCSI Boot Configuration (Configuración de iSCSI Boot) y CHAP Configuration
(Configuración de CHAP) se guardan. Tras seleccionar esta opción, se regresa al menú iSCSI Boot Port Selection
(Selección de puerto de iSCSI Boot).
Menú de configuración de Intel® iSCSI Boot
En el menú Intel® iSCSI Boot Configuration (Configuración de Intel® iSCSI Boot), puede configurar los pametros de iSCSI
Boot y Protocolo de Internet (IP) para un puerto espefico. Los ajustes de iSCSI pueden configurarse manualmente o
recuperarse de forma dinámica desde un servidor DHCP.
Arranque remoto
176
A continuación, se enumeran las opciones del menú Intel® iSCSI Boot Configuration (Configuración de Intel® iSCSI Boot):
l Use Dynamic IP Configuration (DHCP) (Usar configuración de IP dinámica [DHCP]): si selecciona esta casilla de
verificación, iSCSI Boot intentará obtener la dirección IP del cliente, la máscara de subred y la dirección IP de la
puerta de enlace a través de un servidor DHCP. Si se deshabilita esta casilla, estos campos no están visibles.
l Initiator Name (Nombre de iniciador): escriba el nombre del iniciador de iSCSI que utiliza Intel® iSCSI Boot al
establecer conexión con un destino de iSCSI. El valor especificado en este campo es global y lo usan todos los
puertos del sistema habilitados para iSCSI Boot. Este campo puede quedar en blanco si se habilita la casilla "Use
DHCP For Target Configuration" (Usar DHCP para configuración de destino). Para obtener información sobre
la recuperación del nombre del iniciador de iSCSI a través de un servidor DHCP, consulte la sección Configuración
del servidor DHCP.
l Initiator IP (IP de Iniciador): escriba en este campo la dirección IP del cliente que se utilizará en este puerto como
configuración IP estática. El puerto utiliza esta dirección IP durante toda la sesión de iSCSI. Esta opción está
visible si DHCP no está habilitado.
l Subnet Mask (Máscara de Subred): escriba en este campo la máscara de subred IP. Debería ser la máscara de
subred IP que se utiliza en la red a la que se conecta el puerto seleccionado para iSCSI. Esta opción está visible
si DHCP no está habilitado.
l Gateway IP (IP de Puerta de Enlace): escriba en este campo la dirección IP de la puerta de enlace de red. Este
campo es necesario si el destino de iSCSI está ubicado en una subred distinta a donde se encuentra el puerto de
Intel® iSCSI Boot seleccionado. Esta opción está visible si DHCP no está habilitado.
l Use DHCP for iSCSI Target Information (Usar DHCP para información de destino iSCSI): si se selecciona esta
casilla, Intel® iSCSI Boot intentará obtener la dirección IP, número de puerto IP, nombre de destino iSCSI e ID de
LUN SCSI de un servidor DHCP que haya en la red. Para obtener información sobre mo configurar los
pametros de destino iSCSI mediante DHCP, consulte la sección Configuración del servidor DHCP. Si se
deshabilita esta casilla, estos campos no están visibles.
l Target Name (Nombre de Destino): escriba en este campo el nombre de IQN del destino de iSCSI. Esta opción está
visible si no está habilitado DHCP para el destino de iSCSI.
l Target IP (IP de Destino): escriba en este campo la dirección IP del destino de iSCSI. Esta opción está visible si no
está habilitado DHCP para el destino de iSCSI.
l Target Port (Puerto de Destino): Número de puerto TCP.
l Boot LUN (LUN de Disco de Inicio): escriba en este campo la ID de LUN del disco de inicio en el destino de iSCSI.
Esta opción está visible si no está habilitado DHCP para el destino de iSCSI.
Arranque remoto
177
iSCSI CHAP Configuration
Intel® iSCSI Boot admite la autenticación de CHAP MD5 con un destino de iSCSI. Intel® iSCSI Boot utiliza el algoritmo
"MD5 Message Digest" desarrollado por RSA Data Security, Inc.
El menú iSCSI CHAP Configuration (Configuración de CHAP iSCSI) tiene las opciones siguientes para habilitar la
autenticación de CHAP:
l Use CHAP: si se selecciona esta casilla se habilitará la autenticación CHAP en este puerto. CHAP permite al
destino autenticar el iniciador. Tras habilitar la autenticación CHAP, debe especificarse un nombre de usuario y una
contraseña de destino.
l User Name: escriba en este campo el nombre de usuario de CHAP. Debe ser el mismo nombre de usuario de
CHAP configurado en el destino de iSCSI.
l Target Secret: escriba en este campo la contraseña de CHAP. Debe ser igual a la contraseña de CHAP
configurada en el destino de iSCSI y debe tener una extensión de entre 12 y 16 caracteres. Esta contraseña no
puede ser igual a la de Initiator Secret.
l Use Mutual CHAP: si se selecciona esta casilla se habilitará la autenticación Mutual CHAP en este puerto. Mutual
CHAP permite al iniciador autenticar el destino. Tras habilitar la autenticación Mutual CHAP, debe escribirse una
contraseña del iniciador. Solo pod seleccionarse Mutual CHAP si se selecciona la opción "Use CHAP".
l Initiator Secret: Escriba en este campo la contraseña de Mutual CHAP. También debe configurarse esta contraseña
en el destino de iSCSI y debe tener una extensión de entre 12 y 16 caracteres. Esta contraseña no puede ser igual a
la de Target Secret.
La función de autenticación de CHAP de este producto requiere los siguientes reconocimientos:
Este producto incluye software criptográfico escrito por Eric Young (eay@cryptsoft.com). Este producto incluye software
escrito por Tim Hudson (tjh@cryptsoft.com).
Este producto incluye software desarrollado por The OpenSSL Project para que se utilice en el OpenSSL Toolkit.
(http://www.openssl.org/).
Arranque remoto
178
Inte PROSet
Muchas de las funciones del menú Intel® iSCSI Boot Port Selection Setup (Configuración de la selección del puerto de
arranque Intel® iSCSI) también pueden configurarse o revisarse desde el Administrador de dispositivos de Windows o
Intel® PROSet Adapter Configuration Utility. Abra la hoja de propiedades del adaptador y seleccione la ficha Data Options
(Opciones de datos). Debe instalar los controladores y el software más recientes del adaptador de Ethernet Intel para
acceder a esta ficha.
Configuracn de destino de iSCSI Boot
Para obtener información espefica sobre la configuración del sistema de destino de iSCSI y del volumen de disco,
consulte las instrucciones proporcionadas por el proveedor del sistema o del sistema operativo. A continuación se
enumeran los pasos básicos necesarios para la configuración del Arranque iSCSI de Ethernet Intel® a fin de que funcione
con la mayoría de los sistemas de destino de iSCSI. Los pasos específicos variarán en función del proveedor.
NOTAS:
l Para ser compatible con iSCSI Boot, el destino debe ser capaz de admitir varias sesiones del mismo
iniciador. Tanto el iniciador del firmware de iSCSI Boot como el iniciador alto del sistema operativo deben
establecer una sesión de iSCSI al mismo tiempo. Ambos iniciadores utilizan el mismo nombre y dirección IP
del iniciador para la conexión y el acceso al disco del sistema operativo, pero estos dos iniciadores
establecerán una sesión de iSCSI distinta. Para que el destino sea compatible con iSCSI Boot, debe ser
capaz de admitir varias sesiones e inicios de sesión de cliente.
l Si establece el cliente en modo de arranque de BIOS y el servidor de arranque de destino es un destino
Linux, es posible que el cliente no pueda arrancar y aparezca un mensaje de error que indica que no se ha
encontrado un dispositivo de fase 1 adecuado. Establezca su cliente en el modo de arranque UEFI o agregue
lo siguiente a la línea de comandos del kernel del servidor iSCSI de destino: rd.net.timeout.carrier=15
1. Configure un volumen de disco en el sistema de destino de iSCSI. Anote el ID de LUN del volumen para utilizarlo al
configurar el firmware del Arranque iSCSI de Ethernet Intel®.
2. Anote el nombre completo de iSCSI (IQN) del destino de iSCSI, que probablemente tendrá este aspecto:
iqn.1986-03.com.intel:target1
Este valor se utiliza como nombre del destino de iSCSI al configurar el firmware deI Arranque iSCSI de Ethernet
Intel® del sistema iniciador.
3. Configure el sistema de destino de iSCSI para que acepte la conexión iSCSI del iniciador de iSCSI. Por lo general,
esto requiere la especificación del nombre IQN o de la dirección MAC del iniciador a fin de permitir que el iniciador
tenga acceso al volumen de disco. Consulte la sección Configuración del firmware para obtener información sobre
la definición del nombre del iniciador de iSCSI.
4. El protocolo de autenticación unidireccional se puede habilitar de forma opcional para comunicaciones seguras. El
Protocolo de autenticación por desafío mutuo (CHAP) se habilita mediante la configuración del nombre de usuario y
la contraseña en el sistema de destino de iSCSI. Para configurar CHAP en el iniciador de iSCSI, consulte la sección
Configuración del firmware a fin de obtener más información.
Inicio desde destinos de más de 2 TB
Puede conectarse e iniciar desde un LUN de destino de más de 2 terabytes con las restricciones siguientes:
l El tamaño de bloque en el destino debe ser de 512 bytes.
l Los sistemas operativos siguientes son compatibles:
l VMware* ESXi 6.0 o posterior
l Red Hat* Enterprise Linux* 6.3 o posterior
l SUSE* Enterprise Linux 11SP2 o posterior
l Microsoft* Windows Server* 2012 R2 o posterior
l Solo podrá tener acceso a los datos dentro de los primeros 2 TB.
NOTA: el controlador del volcado de bloqueo no admite los LUN de destino de más de 2 TB.
Arranque remoto
179
Configuración del servidor DHCP
Si utiliza el Protocolo de configuración dinámica de host (DHCP), el servidor DHCP debe configurarse a fin de proporcionar
las configuraciones de iSCSI Boot al iniciador de iSCSI. Debe configurar el servidor DHCP para especificar la opción 17
Root Path (Ruta raíz) y la opción 12 Host Name (Nombre de host) para responder al iniciador de iSCSI con la información
de destino de iSCSI. Poda ser necesario especificar la opción 3 de DHCP, Router List (Lista de routers), sen la
configuración de red.
Opción 17 Root Path (Ruta raíz) de DHCP:
La cadena de configuración de la opción de ruta raíz de iSCSI utiliza el formato siguiente:
iscsi:<nombre de servidor o dirección IP>:<protocolo>:<puerto>:<LUN>:<nombre de des-
tino>
l Nombre de servidor: nombre del servidor iSCSI o cadena literal de dirección IPv4
válida.
Ejemplo: 192.168.0.20.
l Protocolo: protocolo de transporte utilizado por ISCSI. El valor predeterminado es tcp
(6).
Actualmente no hay compatibilidad con ningún otro protocolo.
l Puerto: elmero de puerto de destino de iSCSI. Se utiliza el valor predeterminado de
3260 si se deja este campo en blanco.
l LUN: el ID de LUN que se ha configurado en el sistema de destino de iSCSI. El valor
predeterminado es cero.
l Nombre de destino: nombre del destino de iSCSI que identifica de forma exclusiva un
destino de iSCSI en formato IQN.
Ejemplo: iqn.1986-03.com.intel:target1
Opción 12 Host Name (Nombre de host) de DHCP:
Configure la opción 12 con el nombre de host del iniciador de iSCSI.
Opción 3, Router List (Lista de routers) de DHCP:
Configure la opción 3 con la dirección IP de la puerta de enlace o del router, si el iniciador de iSCSI y
el destino de iSCSI se encuentran en distintas subredes.
Creación de una imagen iniciable para un destino iSCSI
Hay dos maneras de crear una imagen iniciable en un destino iSCSI:
l Instalarla directamente en una unidad de disco duro en un conjunto de almacenamiento iSCSI (instalación remota).
l Instalarla en una unidad de disco local y transferir dicha unidad de disco o imagen de SO a un destino iSCSI
(instalación local).
Microsoft* Windows*
Microsoft* Windows Server* admite de fábrica la instalación en un destino iSCSI que carezca de disco local y también
admite el inicio iSCSI del sistema operativo. Consulte las instrucciones de instalación de Microsoft y la documentación de
Windows Deployment Services (Servicios de implementación de Windows) para obtener más información.
SUSE* Linux Enterprise Server
Para que sea muy sencillo instalar Linux en un destino iSCSI, debe utilizar SLES10 o una versión superior. SLES10 ofrece
compatibilidad propia con el inicio y la instalación de iSCSI. Esto significa que no es necesario realizar otros pasos fuera
del instalador para instalarlo en un destino de iSCSI mediante un adaptador de Ethernet Intel para servidores. Consulte la
documentación de SLES para obtener instrucciones sobre mo instalar en un LUN iSCSI.
Arranque remoto
180
Red Hat Enterprise Linux
Para que sea muy sencillo instalar Linux en un destino iSCSI, debe utilizar RHEL 5.1 o una versión superior. RHEL 5.1
ofrece compatibilidad propia con el inicio y la instalación de iSCSI. Esto significa que no es necesario realizar otros pasos
fuera del instalador para instalarlo en un destino de iSCSI mediante un adaptador de Ethernet Intel para servidores.
Consulte la documentación de RHEL para obtener instrucciones sobre mo instalar en un LUN iSCSI.
Compatibilidad de volcado de bloqueo iSCSI de Microsoft Windows Server
El controlador de volcado de bloqueo Intel iSCSI admite la generación del archivo de volcado de bloqueo en los sistemas
Windows Server x64 con inicio iSCSI. Para asegurar que se cree un volcado completo de la memoria:
1. Ajuste el tamaño del archivo de paginación de forma que sea igual o superior a la cantidad de RAM instalada en el
sistema, lo cual es necesario para un volcado completo de la memoria.
2. Aserese de que la cantidad de espacio libre en el disco duro pueda admitir la cantidad de RAM instalada en el
sistema.
Para configurar la compatibilidad con el volcado de bloqueo, siga estos pasos:
1. Configure Windows iSCSI Boot.
2. Si aún no lo ha hecho, instale los últimos controladores del adaptador Ethernet Intel y el Intel PROSet.
3. Abra Intel PROSet para el administrador de dispositivos de Windows o Intel® PROSet Adapter Configuration Utility y
seleccione la pestaña Boot Options (Opciones de arranque).
4. En Configuración, seleccione ISCSI Remote Boot Crash Dump (Volcado de bloqueo de ISCSI Boot) y el valor
habilitado, y haga clic en Aceptar.
Resolucn de problemas de iSCSI
En la siguiente tabla se describen los problemas que podrían presentarse al utilizar el Arranque iSCSI de Ethernet Intel®.
Se proporciona una causa posible y una solución para cada uno de los problemas.
Problema Solución
El Arranque iSCSI de
Ethernet Intel® no se carga
durante el inicio del sistema
y no se visualiza la pantalla
de inicio de sesión.
l Si bien la pantalla de inicio de sesión del sistema puede visualizarse por s
tiempo durante el inicio del sistema, Arranque iSCSI de Ethernet Intel® no pod
visualizarse durante la POST. Es posible que sea necesario deshabilitar una
función del BIOS del sistema para ver los mensajes del Arranque remoto iSCSI
de Ethernet Intel®. En el menú de BIOS del sistema, deshabilite cualquier opción
que tenga que ver con inicios silenciosos o rápidos. Tambn deshabilite
cualquier pantalla de bienvenida del BIOS. Estas opciones podrían suprimir la
salida del Arranque remoto iSCSI de Ethernet Intel®.
l El Arranque remoto iSCSI de Ethernet Intel® no se ha instalado en el adaptador o
está deshabilitada la ROM flash del adaptador. Actualice el adaptador de red con
la versión s reciente de BootUtil tal como se describe en la sección Igenes
flash de este documento. Si BootUtil informa que la ROM flash está deshabilitada,
utilice el comando "BootUtil -flashenable" para habilitar la ROM flash y
actualizar el adaptador.
l El BIOS del sistema podría estar suprimiendo la salida del arranque iSCSI de
Ethernet Intel®.
l Es probable que no haya memoria del BIOS del sistema suficiente para cargar el
Arranque iSCSI de Ethernet Intel®. Intente deshabilitar los controladores y
dispositivos de disco que no se utilicen en el menú de configuración del BIOS.
Los controladores SCSI, el controlador RAID, las conexiones de red habilitadas
PXE y la vigilancia del BIOS del sistema reducen el área de memoria disponible
para el Arranque iSCSI de Ethernet Intel® Deshabilite estos dispositivos y reinicie
Arranque remoto
181
el sistema para ver si Intel iSCSI Boot logra inicializarse. Si tras deshabilitar los
dispositivos en el menú de BIOS del sistema no se resuelve el problema,
entonces intente quitar los dispositivos o controladores de disco que no se
utilicen del sistema. Algunos fabricantes de sistema permiten que se deshabiliten
los dispositivos no utilizados mediante la configuración de puentes.
Tras la instalación del
Arranque iSCSI de Ethernet
Intel®, el sistema no se
inicia en un disco local o en
un dispositivo de inicio de
red. El sistema no responde
tras la visualización de la
pantalla de inicio de sesión
del Arranque iSCSI de
Ethernet Intel® o tras la
conexión al destino de
iSCSI.
l Se produjo un error de sistema crítico durante la inicialización de iSCSI Remote
Boot. Encienda el sistema y pulse la tecla 'S' o 'ESC' antes de que se inicialice el
Arranque remoto iSCSI de Ethernet Intel®. De esta forma se omite el proceso de
inicialización del Arranque iSCSI de Ethernet Intel® y se permite que el sistema
se inicie en una unidad local. Use la utilidad BootUtil para realizar la
actualización a la versión s reciente del Arranque remoto iSCSI de Ethernet
Intel®
l La actualización de la BIOS del sistema tambn puede resolver el problema.
"Arranque iSCSI de
Ethernet Intel®" no
figura como dispositivo de
inicio en el menú de
dispositivos de inicio del
BIOS del sistema.
l Es probable que el BIOS del sistema no admita Arranque iSCSI de Ethernet
Intel®. Actualice el BIOS del sistema con la versión más reciente disponible a
través del proveedor del sistema.
l Podría haber un conflicto con otro dispositivo instalado. Intente deshabilitar los
controladores de disco y de red que no se utilicen. Se sabe que algunos
controladores SCSI y RAID ocasionan problemas de compatibilidad con Intel
iSCSI Remote Boot.
Mensaje de error mostrado:
"Failed to detect link" (No
se pudo detectar el enlace)
l El Arranque iSCSI de Ethernet Intel® no logró detectar el enlace en el puerto de
red. Vea la luz de detección denculo en la parte posterior de la conexión de
red. La luz denculo debe encenderse en verde cuando se ha establecido un
vínculo con el asociado denculo. Si la luz de enlace se ilumina pero el mensaje
de error sigue apareciendo, intente ejecutar las pruebas de diagnóstico de
enlace y cable de Intel utilizando diags64e.efi para UEFI o Intel PROSet para
Windows.
Mensaje de error mostrado:
"DHCP Server not found!"
(¡Servidor DHCP no
encontrado!)
iSCSI se configuró para que recupere una dirección IP desde DHCP pero ningún
servidor DHCP respondió a la solicitud de detección de DHCP. Este problema poda
tener varias causas:
l Es probable que el servidor DHCP haya utilizado todas las reservaciones de
dirección IP disponibles.
l El sistema iSCSI cliente podría requerir la asignación de direcciones IP estáticas
en la red con la que se establece conexión.
l Es probable que no haya ningún servidor DHCP presente en la red.
l Es probable que el Protocolo de árbol de expansión (STP) del conmutador de red
esté evitando que el puerto de Arranque iSCSI de Ethernet Intel® se comunique
con el servidor DHCP. Consulte la documentación del conmutador de red acerca
de cómo deshabilitar el Protocolo de árbol de expansión.
Mensaje de error mostrado:
"PnP Check Structure is
invalid!" (¡Estructura no
válida de verificación PnP!)
l El Arranque iSCSI de Ethernet Intel® no logró detectar un BIOS PCI de PnP
válido. Si aparece este mensaje, quiere decir que el Arranque iSCSI de Ethernet
Intel® no puede ejecutarse en el sistema en cuestión. Se requiere un BIOS PCI
totalmente compatible con PnP a fin de ejecutar el Arranque remoto iSCSI de
Ethernet Intel®.
Arranque remoto
182
Mensaje de error mostrado:
"Invalid iSCSI connection
information" (Información de
conexión iSCSI no válida)
l La información de configuración iSCSI recibida de DHCP o configurada de forma
estática en el menú de configuración está incompleta y no se pudo completar un
intento de inicio de sesión en el sistema de destino de iSCSI. Verifique que el
nombre del iniciador de iSCSI, el nombre del destino de iSCSI, la dirección IP de
destino y el número de puerto de destino se hayan configurado de forma debida
en el menú de configuración de iSCSI (para la configuración estática) o en el
servidor DHCP (para la configuración dinámica de BOOTP).
Mensaje de error mostrado:
"Unsupported SCSI disk
block size!" (¡Tamaño no
compatible de bloque de
disco SCSI!)
l El sistema de destino de iSCSI se ha configurado para utilizar un tamaño de
bloque de disco que no admite Arranque iSCSI de Ethernet Intel®. Configure el
sistema de destino de iSCSI para que utilice un tamaño de bloque de disco de
512 bytes.
Mensaje de error mostrado:
"ERROR: Could not
establish TCP/IP connection
with iSCSI target system"
(no se pudo establecer una
conexión TCP/IP con el
sistema de destino de
iSCSI)
l Arranque iSCSI de Ethernet Intel® no logró establecer una conexión TCP/IP con
el sistema de destino de iSCSI. Verifique que la configuración de dirección IP,
máscara de subred, puerto y puerta de enlace del iniciador y del destino se
hayan definido de forma debida. Verifique dicha configuración en el servidor
DHCP, si corresponde. Compruebe que el sistema de destino de iSCSI esté
conectado a una red a la que tenga acceso el iniciador del Arranque remoto
iSCSI de Ethernet Intel®. Verifique que un firewall no bloquee la conexión.
Mensaje de error mostrado:
"ERROR: CHAP
authentication with target
failed" (falló la autenticación
CHAP con el destino)
l El nombre de usuario o el secreto CHAP no coincide con la configuración CHAP
en el sistema de destino de iSCSI. Verifique que la configuración de CHAP del
puerto del Arranque iSCSI de Ethernet Intel® coincida con la configuración de
CHAP del sistema de destino de iSCSI. Deshabilite CHAP en el menú de
configuración de iSCSI Remote Boot, si no se ha habilitado en el destino.
Mensaje de error mostrado:
"ERROR: Login request
rejected by iSCSI target
system" (el sistema de
destino de iSCSI rechazó la
solicitud de inicio de
sesión)
l Se envió una solicitud de inicio de sesión al sistema de destino de iSCSI, la cual
fue rechazada. Verifique que la configuración del nombre del iniciador de iSCSI,
el nombre del destino, el número LUN y la autenticación CHAP coincida con la
configuración del sistema de destino de iSCSI. Verifique que el destino se haya
configurado de forma que permita el acceso del iniciador del Arranque remoto
iSCSI de Ethernet Intel® a un LUN.
Durante la instalación de
Linux en NetApp Filer y tras
la detección satisfactoria
del disco destino, es
probable que se reciban
mensajes similares a los
siguientes.
Iscsi-sfnet:hostx: Connect
failed with rc -113: No route
to host
Iscsi-sfnet:hostx: establish_
session failed. Could not
connect to target
l Si se ven estos mensajes, debe deshabilitar las interfaces iSCSI en NetApp Filer.
l Agregue Continuous=no al archivo iscsi.conf.
Mensaje de error mostrado.
"ERROR: iSCSI target not
found" (no se encontró el
l Se estableció satisfactoriamente una conexión TCP/IP con la dirección IP de
destino; sin embargo, no se encontró un destino de iSCSI con el nombre
especificado en el sistema de destino. Verifique que los nombres configurados de
Arranque remoto
183
destino de iSCSI) destino y del iniciador de iSCSI coincidan con la configuración del destino de
iSCSI.
Mensaje de error mostrado.
"ERROR: iSCSI target
cannot accept any more
connections" (el destino de
iSCSI no puede aceptar
más conexiones)
l El destino de iSCSI no puede aceptar nuevas conexiones. Este error poda
producirse porque se configuró un límite en el destino de iSCSI o por falta de
recursos (no hay s discos).
Mensaje de error mostrado.
"ERROR: iSCSI target has
reported an error" (el
destino de iSCSI ha
informado un error)
l Se produjo un error en el destino de iSCSI. Revise el destino de iSCSI para
determinar la causa del error y asegúrese de que su configuración sea la
correcta.
Mensaje de error mostrado.
"ERROR: There is an IP
address conflict with
another system on the
network." (Hay un conflicto
de direcciòn IP con otro
sistema en la red.)
l Se detectó un sistema en la red que usa la misma dirección IP que el cliente
iSCSI Option ROM.
l Si utiliza una asignación de dirección IP estática, trate de cambiar la dirección IP
a una que no utilice otro cliente de la red.
l Si utiliza una dirección IP asignada por un servidor DHCP, asegúrese de que no
haya clientes en la red que utilicen una dirección IP que entra en conflicto con el
intervalo de direcciones IP que utiliza el servidor DHCP.
Problemas conocidos de iSCSI
Un dispositivo no aparece en el menú de configuración de red del controlador de ciclo de vida
Cuando un dispositivo de arranque iSCSI de Ethernet Intel® está conectado a un LUN de iSCSI en el modo de arranque
del BIOS heredado, el dispositivo no aparece en el menú de configuración de red del controlador de ciclo de vida.
El filtro QoS no se crea y el tráfico iSCSI se etiqueta con la prioridad 0
En dispositivos basados en la controladora de Ethernet Intel® X710, con NPAR activado, si ha conectado el dispositivo a un
conmutador que tiene DCBx activado, el filtro QoS no se crea para la partición NPAR y el tfico iSCSI se etiqueta con la
prioridad 0 en lugar de la prioridad 4. Al reiniciar el sistema se resolve el problema.
No se puede desinstalar un dispositivo si está configurado como puerto iSCSI primario o secundario
Desactivar el puerto iSCSI primario también desactiva el puerto secundario. Para arrancar desde el puerto secundario,
cámbielo al puerto primario.
iSCSI Remote Boot: conexión opuesta con un objetivo mediante un LOM Broadcom
De forma ocasional, conectar un host de arranque iSCSI a un destino mediante un LOM Broadcom puede provocar que la
conexión falle. Utilice un conmutador entre el host y el destino para evitarlo.
Es posible que el firmware de iSCSI Remote Boot muestre 0.0.0.0 en el campo de dirección IP del servidor DHCP
En un servidor DHCP básico de Linux, el firmware de iSCSI Remote Boot muestra 0.0.0.0 en el campo de dirección IP de
dicho servidor. El firmware de iSCSI Remote Boot comprueba la dirección IP del servidor DHCP a partir del campo Next-
Server (Próximo servidor) del paquete de respuestas de DHCP. No obstante, puede que el servidor DHCP básico de Linux
no establezca este campo de forma predeterminada. Introduzca "Next-Server <IP Address>;" en dhcpd.conf para ver la
dirección IP del servidor DHCP.
Arranque remoto
184
Problemas de Microsoft Windows iSCSI Boot
El iniciador de Microsoft no se inicia sin un enlace en el puerto de inicio:
Tras la configuración del sistema para el Arranque iSCSI de Ethernet Intel® con dos puertos conectados a un destino y el
inicio correcto del sistema, si más adelante intenta iniciar el sistema solo con el puerto de inicio secundario conectado al
destino, el iniciador de Microsoft reiniciará continuamente el sistema.
Para resolver esta limitación, siga estos pasos:
1. Con el editor del Registro, amplíe la siguiente clave del registro:
\System\CurrentControlSet\Services\Tcpip\Parameters
2. Cree un valor DWORD denominado DisableDHCPMediaSense y configure el valor en 0.
Compatibilidad con plataformas iniciadas por el iniciador nativo UEFI iSCSI
A partir de la versión 2.2.0.0, el controlador de volcado de bloqueo de iSCSI adquirió la capacidad de admitir plataformas
iniciadas mediante el iniciador nativo UEFI iSCSI en los adaptadores de red de Intel compatibles. Esta compatibilidad está
disponible en los sistemas operativos Microsoft Windows Server.
Dado que los adaptadores de red de las plataformas UEFI puede que no ofrezcan una ROM opcional antigua de iSCSI, es
posible que la ficha Boot Options de DMIX no disponga del ajuste necesario para habilitar el controlador de volcado de
bloqueo de iSCSI. En tal caso será necesario crear la siguiente entrada de registro:
HKLM\SYSTEM\CurrentControlSet\Control\Class\{4D36E97B-E325-11CE-BFC1-
08002BE10318}\<InstanceID>\Parameters
DumpMiniport REG_SZ iscsdump.sys
Desplazamiento del adaptador iSCSI a una ranura distinta:
En una instalación de Windows*, si traslada el adaptador iSCSI a una ranura PCI que no sea en la que se encontraba
cuando se instalaron los controladores y el iniciador de MS iSCSI Boot, se produce un error de sistema durante la pantalla
de bienvenida de Windows. Este problema desaparece si vuelve a colocar el adaptador en la ranura PCI original.
Recomendamos no cambiar de sitio el adaptador utilizado para la instalación de iSCSI Boot. Se trata de un problema
conocido del SO.
Si debe trasladar el adaptador a otra ranura, realice lo siguiente:
1. Inicie el sistema operativo y quite el adaptador antiguo
2. Instale un adaptador nuevo en otra ranura
3. Configure el nuevo adaptador para iSCSI Boot
4. Ejecute el inicio de iSCSI en el SO mediante el adaptador original
5. Defina el nuevo adaptador como iniciable con iSCSI en el SO
6. Reinicie
7. Traslade el adaptador antiguo a otra ranura
8. Repita los pasos 2 a 5 con el adaptador antiguo que acaba de trasladar
La desinstalación del controlador puede causar que aparezca una pantalla azul
Si el controlador del dispositivo que se utiliza para iSCSI Boot se desinstala a través del Administrador de dispositivos,
Windows muestra una pantalla azul durante el inicio y es necesario volver a instalar el SO. Se trata de un problema
conocido de Windows.
No se eliminaron los adaptadores con una imagen de iSCSI del Administrador de dispositivos durante la desinstalación
Durante la desinstalación se elimina todo el software restante de Conexión de red Intel pero los controladores de los
adaptadores de iSCSI Boot que tienen una prioridad de inicio asignada como primaria o secundaria no se desinstalan.
La descarga de I/OAT podría detenerse con Arranque iSCSI de Ethernet Intel® o con el iniciador de Microsoft instalado
Una solución transitoria para este problema consiste en cambiar el valor de registro siguiente a "0":
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\IOATDMA\Start
Arranque remoto
185
Solamente cambie el valor del registro si iSCSI Boot está habilitado y si desea la descarga de I/OAT. Aparecerá una
pantalla azul si este valor se cambia a "0" cuando iSCSI Boot no está habilitado. Debe cambiarse de nuevo a "3" si iSCSI
Boot está inhabilitado o aparece una pantalla azul durante el reinicio.
La configuración de una dirección de administración local (LAA) en un puerto habilitado para iSCSI Boot provocará un fallo del sistema en el siguiente rei-
nicio
No configure una dirección LAA en los puertos con iSCSI Boot habilitado.
La versión del Arranque iSCSI de Ethernet Intel® no coincide entre versiones visualizadas en DMIX y el texto que se desplaza durante el inicio
Si un dispositivo no se establece como primario pero se enumera en primer lugar, el BIOS utiliza la versión de ese
dispositivo de iSCSI Boot. Por lo tanto, puede que el usuario tenga que utilizar una versión anterior de Arranque iSCSI de
Ethernet Intel® y no la esperada. La solución consiste en que todos los dispositivos del sistema deben tener la misma
versión de iSCSI Boot. Para ello, el usuario debe ir a la ficha Opciones de inicio y actualizar la memoria flash de los
dispositivos a la versión más reciente.
Inicio de sesión iSCSI con IPv6 en los conjuntos Dell EqualLogic mediante tramas Jumbo
Para establecer una sesión iSCSI utilizando IPv6 y tramas Jumbo con conjuntos Dell EqualLogic, deben desactivarse las
descargas de suma de comprobación de TCP/UDP en el adaptador Intel iSCSI.
Problemas conocidos de iSCSI/DCB de Microsoft Windows
La creación automática de filtros de tráfico iSCSI para DCB solo es compatible con redes que utilicen direcciones IPv4
La función para la habilitación de puentes de centro de datos (DCB) emplea filtros de tfico de calidad de servicio (QOS)
para etiquetar paquetes salientes con una prioridad. El agente iSCSI de Intel crea dinámicamente estos filtros de tfico
según se necesitan en las redes mediante el direccionamiento IPv4.
Inicio de sesión iSCSI con IPv6 en los conjuntos Dell EqualLogic mediante tramas Jumbo
Para establecer una sesión iSCSI utilizando IPv6 y tramas Jumbo con conjuntos Dell EqualLogic, deben desactivarse las
descargas de suma de comprobación de TCP/UDP en el adaptador Intel iSCSI.
Problemas conocidos de Linux
Unión de canales
La función de unn de canales de Linux presenta problemas básicos de compatibilidad con iSCSI Boot y no debe
utilizarse.
Incompatibilidad de LRO e iSCSI
Large Receive Offload (LRO) es incompatible con el tfico de destino o de iniciador de iSCSI. Puede producirse un error
irrecuperable cuando el tfico de iSCSI se recibe a través del controlador ixgbe con LRO habilitada. El controlador debe
crearse e instalarse con:
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
Firmware
186
Firmware
El firmware es una capa de software que se programa en la memoria de un dispositivo. Proporciona una funcionalidad de
bajo nivel para el dispositivo. En la mayoría de los casos no notará el firmware en su dispositivo en absoluto. Los estados
de error del firmware suelen producirse por una actualización fallida.
Seguridad del firmware
Intel o el fabricante de su equipo publican ocasionalmente un parche de seguridad del firmware. Le recomendamos que
actualice su firmware a la última versión disponible para su dispositivo para aprovechar estos parches de seguridad. Las
actualizaciones de firmware para los dispositivos Ethernet Intel tendrán unmero de revisión de seguridad (SRev).
Aplicación de la revisión de seguridad mínima
Las actualizaciones de seguridad del firmware pueden deshacerse si se instala una versión anterior del firmware en el
dispositivo. Las versiones de firmware de Intel incluyen una función de aplicación de la revisión de seguridad mínima
(MinSRev). Esto significa que puede impedir que alguien instale una revisión anterior del firmware en su dispositivo. Esto
limitará las capacidades de reversión de su dispositivo. El proceso de actualización del firmware bloqueará la actualización
si el firmware suministrado tiene una revisión de seguridad (SRev) inferior al valor de MinSRev del firmware cargado
actualmente en el dispositivo. Solo actualice el valor de MinSRev si está seguro de que no necesitará revertir el firmware a
una versión anterior.
Puede actualizar el valor de MinSRev durante el proceso de actualización del firmware, fijando la versión de seguridad
actual como la nueva referencia de MinSRev, utilizando la opción de línea de comandos -optinminsrev.
ATENCN: El valor de MinSRev en un dispositivo no se puede reducir. Una vez que se incrementa el MinSRev,
las versiones anteriores de NVM que intenten instalar una revisión de seguridad (SRev) inferior al actual
MinSRev serán rechazadas por el dispositivo. Los usuarios que quieran cambiara a una versión anterior del
firmware sin tener en cuenta las revisiones de seguridad no deben utilizar esta función.
Esto se aplica a los dispositivos basados en las siguientes controladoras:
l Controladora de Ethernet Intel® serie 800
l Controladora de Ethernet Intel® serie 700
l Controladora de Ethernet Intel® X550
Ejemplos
Consultar la revisión de seguridad mínima actual de su dispositivo
Siga estos pasos para consultar la revisión de seguridad mínima establecida en la tarjeta.
1. Durante el arranque del sistema, pulse la tecla F2 para entrar en el menú System Setup (Configuración del
sistema).
2. En System Setup Main Menu (Menú principal de configuración del sistema), seleccione Device Settings
(Configuración del dispositivo).
3. Seleccione su adaptador de la lista para ir Device Configuration Menu (Menú de configuración del dispositivo).
4. En la Main Configuration Page (Página principal de configuración), seleccione Firmware Image Properties
(Propiedades de imagen del firmware).
5. Consulte el atributo Minimum Security Revision (Revisión de seguridad mínima).
Actualizar el MinSRev de su dispositivo
Para actualizar el MinSRev de su dispositivo, primero debe extraer nvmupdate del FW-DUP. En Windows, esto puede
hacerse haciendo clic en “Extract” (Extraer) después de iniciar el DUP del firmware en el modo GUI. En Linux, esto puede
hacerse utilizando los pametros “--extract <ruta>” desde la línea de comandos. Después de extraer el paquete, realice la
actualización desde la línea de comandos como se muestra en el siguiente ejemplo:
Firmware
187
Windows: nvmupdatew64e -u -optinminsrev -l update.log -o update.xml -c nvmupdate.cfg
Linux: nvmupdate64e -u -optinminsrev -l update.log -o update.xml -c nvmupdate.cfg
Donde:
-u -- Pone nvmupdate en modo de actualización.
-optinminsrev -- Indica a la herramienta que actualice el valor de MinSRev.
-l update.log -- Especifica el nombre del archivo de registro.
-o update.xml -- Especifica el nombre del archivo de resultados. Es un archivo XML que
contiene los resultados del inventario/actualización.
-c nvmupdate.cfg -- Especifica el nombre del archivo de configuración. Es un archivo de texto
que contiene las descripciones de los dispositivos de red y las versiones de firmware de
dichos dispositivos.
Modo de reversión de firmware
Cuando un puerto está en modo de reversión de firmware, puede tener una funcionalidad reducida. Por lo general, un
dispositivo entra en el modo de reversión de firmware cuando una actualización de firmware no se completa correctamente.
Reiniciar o apagar el sistema puede permitir que el puerto utilice el firmware anterior. Es posible que tenga que volver a
aplicar la actualización del firmware para recuperar la plena funcionalidad del dispositivo. Utilice el paquete de
actualización de NVM apropiado para actualizar el firmware del dispositivo. Descargue el paquete de actualización de NVM
más reciente del sitio web de asistencia de su proveedor y siga las instrucciones incluidas. Después de restaurar la imagen
NVM, es posible que tenga que realizar un ciclo de apagado y encendido del sistema
Modo de recuperación de firmware
Un dispositivo entra en el modo de recuperación de firmware si detecta un problema que requiere volver a programar el
firmware. Cuando un dispositivo se encuentra en el modo de recuperación de firmware, no transmite el tfico ni permite
ninguna configuración; solo puede intentar recuperar el firmware del dispositivo.
Productos afectados
Dispositivo Ethernet Nueva versión de NVM Herramientas y controladores
de software
Controladora de Ethernet Intel® serie
800
Todas las versiones de firmware Todas las versiones de
controlador
Controladora de Ethernet Intel® serie
700
Firmware de la familia de NIC Intel® versión
18.8.0 y posteriores
Familia de NIC Intel® versión
18.8.0 y posteriores
Controladora de Ethernet Intel® X550 Firmware de la familia de NIC Intel® versión
18.8.0 y posteriores
Familia de NIC Intel® versión
18.8.0 y posteriores
Detección del modo de recuperación
Durante la inicialización, un dispositivo puede entrar en el modo de recuperación si el firmware del dispositivo detecta un
problema con el dispositivo LAN y exige la reprogramación del NVM para restablecer el funcionamiento normal. Desps
de realizar pruebas internas exhaustivas de la NVM (normalmente menos de 10 minutos, pero en algunos casos s), el
NIC entra en el modo de recuperación.
Firmware
188
Errores y mensajes del modo de recuperación de firmware
Cuando un dispositivo se encuentra en el modo de recuperación de firmware, los controladores, el software de prearranque
y las utilidades del dispositivo pueden registrar o mostrar mensajes como los siguientes:
l Firmware recovery mode detected (Modo de recuperacn de firmware detectado). Limiting functionality
(Funcionalidad limitada). Refer to the Intel® Ethernet Adapters and Devices User Guide for details on firmware
recovery mode (Consulte la Ga del usuario de los adaptadores y dispositivos de Ethernet Intel® para obtener
s informacn sobre el modo de recuperación de firmware).
l Firmware recovery mode detected (Modo de recuperacn de firmware detectado). El hardware subyacente se
ha desactivado. Refer to the Intel® Ethernet Adapters and Devices User Guide for details on firmware recovery
mode (Consulte la Ga del usuario de los adaptadores y dispositivos de Ethernet Intel® para obteners
informacn sobre el modo de recuperacn de firmware).
l Firmware recovery mode detected (Modo de recuperacn de firmware detectado). Fallo de inicialización.
l Firmware recovery mode detected (Modo de recuperacn de firmware detectado). Limiting functionality
(Funcionalidad limitada).
l Initialization failure due to repeated FW resets. Este mensaje suele ser una indicación de que el dispositivo está a
punto de entrar en el modo de recuperación. El dispositivo puede volver a funcionar normalmente sin intervención.
Esto puede tardar varios minutos. No se requiere ninguna acción a menos que el dispositivo entre en el modo de
recuperación.
Resolucn de problemas del modo de recuperacn de firmware
Si el dispositivo está en modo de recuperación de firmware, puede restaurarlo a los valores por defecto de fábrica mediante
el proceso de resolución de problemas del modo de recuperación de firmware que se describe en las subsecciones
siguientes.
Autocomprobación de NVM
El proceso comienza tras el encendido o el reinicio. En ese momento, el firmware realiza pruebas para determinar si la
imagen NVM del dispositivo ha sufrido algún tipo de daño.
Acciones:
l Si no se detectan daños en la imagen NVM, el dispositivo se inicializa y funciona con normalidad. No se requiere
ninguna otra acción.
l Si se detectan daños en la imagen NVM, el dispositivo no se inicializa. Continúe con los pasos de recuperación
adicionales que se indican en la sección Modo de recuperación.
Modo de recuperación
La imagen NVM del dispositivo parece estar dañada.
Acciones:
1. Espere 10 minutos hasta que finalice el proceso de autocomprobación de la NVM. Si durante este periodo se
consigue el funcionamiento normal, el dispositivo se inicializará y funciona con normalidad. No se requiere
ninguna otra acción.
2. Si desps de 10 minutos no se consigue el funcionamiento normal:
a. Compruebe el registro de eventos del sistema en los sistemas operativos Windows o los registros del kernel
y mensajes del controlador en las distribuciones basadas en Linux y ESXi. El modo de recuperación se
confirma por la presencia de mensajes o entradas de registro como se indica en la sección Errores y
mensajes del modo de recuperación de firmware.
b. Reinicie el sistema y continúe con los pasos de recuperación adicionales que se indican a continuación en
Restauración de la imagen NVM.
Firmware
189
NOTAS:
l En el modo de recuperación, en sistemas operativos Windows, al hacer clic en el adaptador del
administrador de dispositivos puede aparecer un cuadro de diálogo que indica que el modo de recuperación
de firmware está activo.
l Después de descartar el cuadro de diálogo, aunque el dispositivo parezca estar funcionando con
normalidad, en realidad está limitado a habilitar únicamente la recuperación de la imagen NVM.
l Si se reinicia el sistema (en vez de encenderlo y apagarlo), es posible que el estado del controlador no
muestre el estado esperado de código 10/marca amarilla. Consulte los eventos incluidos en el registro de
eventos del sistema en los sistemas operativos Windows o los registros del kernel y mensajes del controlador
en las distribuciones basadas en Linux y ESXi, a fin de determinar con precisión el estado del adaptador.
l Cuando el adaptador está en modo de recuperación, el LED de conexión no se enciende y el adaptador no
aparece en las siguientes ubicaciones:
l F2 Configuración del sistema > Configuración del dispositivo
l BIOS del sistema como NIC para arranque PXE en modo de arranque UEFI
l Controlador de ciclo de vida > Configuración de red
l Interfaz gráfica web de iDRAC > Inventario de firmware
Restauración de la imagen NVM
En este punto, el dispositivo está en modo de recuperación de firmware y su funcionalidad se limita únicamente a la
restauración de la imagen NVM.
Acciones:
1. Antes de iniciar la recuperación del dispositivo, se debe verificar la integridad del sistema operativo host, los
controladores del dispositivo y las utilidades de firmware y reinstalar estos elementos si es necesario. Para la
recuperación del dispositivo es necesario que el sistema operativo, los controladores del dispositivo y las
herramientas sean completamente funcionales. Consulte las instrucciones espeficas de su sistema operativo
sobre cómo analizar y reparar archivos del sistema potencialmente dañados.
2. Si su dispositivo está en modo de recuperación de firmware, puede restaurarlo a los valores por defecto de fábrica
mediante el último paquete de actualización de Dell EMC para el firmware del adaptador Intel (FW-DUP) o el
paquete de actualización del firmware ESXi de la familia de NIC Intel. Descargue el último paquete de actualización
de Dell EMC para el firmware del adaptador Intel (FW-DUP) o el paquete de actualización del firmware ESXi de la
familia de NIC Intel del sitio web de asistencia de Dell y siga las instrucciones incluidas. El paquete de actualización
de Dell EMC para el firmware del adaptador Intel (FW-DUP) debe ejecutarse en un sistema operativo para recuperar
el dispositivo, no en Dell Lifecycle Controller o iDRAC.
3. Después de restaurar la imagen NVM, realice un ciclo de apagado y encendido del sistema. Encontrará los detalles
a continuación, en la sección Otras notas generales.
NOTAS:
l Si un dispositivo está en modo de recuperación cuando se ejecuta el paquete Dell DUP para el inventario, la
versión de la familia de firmware (FFV) mostrará "0.0.0". Comportamiento previsto.
l La ejecución de FW-DUP en modo de recuperación no actualiza la ROM opcional. Un ciclo de encendido y
apagado y la ejecución de FW-DUP por segunda vez corregin este problema.
l Después de ejecutar FW-DUP en modo de recuperación, la versión del firmware es incorrecta. La
actualización del firmware a tras de Dell Lifecycle Controller o iDRAC resolve el problema.
l Los ajustes configurados por el usuario (es decir, la información de destino iSCSI, las direcciones MAC
alternativas o los puertos definidos por el usuario) no se restaurarán a los valores anteriores al uso del modo
de recuperación.
Otras notas generales
NOTAS:
l Para realizar un ciclo de encendido y apagado, lleve a cabo los pasos siguientes:
l Apague el sistema si está encendido.
Firmware
190
l Desconecte todos los cables de alimentación del sistema.
l Deje los cables de alimentación desenchufados durante 15 segundos para que la fuente de
alimentación del sistema se descargue completamente.
l Conecte los cables de alimentación al sistema.
l Si NPAR estaba activado cuando se recupe el sistema, es posible que siga viendo particiones NIC en el
sistema operativo aunque el HII informe de que NPAR está desactivado. En esta situación, también puede
ver que algunas de las particiones no funcionan correctamente en el sistema operativo. Para solucionarlo,
vuelva a activar NPAR en HII de la siguiente manera:
1. Durante el arranque del sistema, pulse F2 para acceder a la configuración del sistema, seleccione
Device Settings (Configuración del dispositivo) y seleccione el dispositivo que desee.
2. Seleccione Device Level Configuration (Configuración a nivel de dispositivo) y active NPAR en el
menú Virtualization Mode (Modo de virtualización).
3. Guarde los cambios y el sistema se reinicia.
191
Resolución de problemas
Problemas comunes y sus soluciones
Hay muchos problemas sencillos y fáciles de resolver relacionados con problemas de red. Siga los siguientes pasos antes
de continuar:
l Compruebe los últimos cambios en el hardware, el software o la red que pueden haber interrumpido las
comunicaciones.
l Compruebe el software de controlador.
l Aserese de utilizar la versión más reciente de los controladores indicados para su adaptador en el sitio
web de asistencia de Dell.
l Desactive (o descargue) y vuelva a activar (o cargar) el controlador o el adaptador.
l Intente identificar configuraciones problemáticas. Desactive las configuraciones avanzadas para ver si el
problema se resuelve.
l Vuelva a instalar los controladores.
l Compruebe el cable. Utilice los mejores cables para el caudal de datos indicado.
l Compruebe que el cable esté conectado correctamente en ambos puntos.
l Compruebe que la longitud del cable no exceda las especificaciones.
l Realice una prueba de cable.
l Sustituya el cable.
l Compruebe el interlocutor de enlace (conmutador, hub, etc.).
l Aserese de que el interlocutor de enlace esté activo y pueda enviar y recibir tfico.
l Aserese de que la configuración del adaptador y el interlocutor de enlace coincidan o estén establecidas
para la negociación automática.
l Aserese de que el puerto esté activado.
l Vuelva a conectarse a otro puerto disponible u otro interlocutor de enlace.
l Intente identificar problemas del adaptador.
l Vuelva a colocar el adaptador.
l Inserte el adaptador en otra ranura.
l Intente identificar dispositivos y configuraciones de hardware incompatibles o en conflicto.
l Sustituya el adaptador.
l Consulte el sitio web de asistencia de Dell para buscar los problemas documentados.
l Seleccione su adaptador en la lista de familias de adaptadores.
l Consulte la sección Preguntas más frecuentes.
l Consulte la Base de conocimientos.
l Compruebe su monitor de procesos y otros monitores del sistema.
l Compruebe que hay suficiente capacidad de procesador y memoria para realizar la actividad de red.
l Intente identificar actividades inusuales (o faltas de actividad).
l Utilice programas de pruebas de red para comprobar la conectividadsica.
l Compruebe la versión y la configuración de la BIOS.
l Utilice la BIOS s reciente indicada para su equipo.
l Aserese de que la configuración es apropiada para su equipo.
La siguiente tabla de solución de problemas parte de la base de que se han evaluado los problemas más comunes y sus
soluciones.
Problema Solución
Su equipo no puede encontrar el adaptador Asegúrese de que las ranuras de su adaptador son compatibles con
el tipo de adaptador utilizado.
Los diagsticos son correctos, pero falla la
conexión
Aserese de que el cable esté correctamente conectado, es del tipo
correcto y no excede las longitudes recomendadas.
Resolución de problemas
192
Problema Solución
Aserese de que los valores del modoplex y de la velocidad del
adaptador coincidan con los del conmutador.
El adaptador no se conecta al conmutador a la
velocidad correcta. El adaptador Gigabit se
conecta a 100 Mbps, y el adaptador 10 Gigabit se
conecta a 1000 Mbps.
Esto es válido solo para las conexiones basadas en cobre.
Aserese de que el adaptador y el interlocutor de enlace están
configurados para la negociación automática.
Compruebe que está ejecutando la última revisión del sistema
operativo para su conmutador y que el conmutador cumple con el
estándar IEEE adecuado:
l IEEE 802.3ad (Gigabit por hilo de cobre)
l IEEE 802.3an (10 Gigabit por hilo de cobre)
El dispositivo no se conecta a la velocidad
esperada.
Si el modo maestro/esclavo Gigabit se fuerza a modo "maestro" tanto
en el adaptador Intel como en su interlocutor de enlace, la velocidad
de enlace alcanzada por el adaptador Intel puede ser inferior a lo
esperado.
El adaptador deja de funcionar sin motivo
aparente
Ejecute las pruebas de adaptador y de red descritas en "Prueba del
adaptador".
La luz indicadora del enlace está apagada Ejecute las pruebas de adaptador y de red descritas en "Prueba del
adaptador".
Aserese de que esté cargado el controlador adecuado (y que sea
el más reciente).
Aserese de que el interlocutor de enlace esté configurado para la
negociación automática (o que se fuerce para que coincida con el
adaptador)
Verifique que el conmutador cumpla con la especificación IEEE 802
3ad.
La luz indicadora del enlace está encendida,
pero la comunicación no se establece
correctamente
Aserese de que esté cargado el controlador adecuado (y que sea
el más reciente).
Tanto el adaptador como el interlocutor de enlace deben
configurarse para la detección automática o bien, deben configurarse
en forma manual con las mismas opciones de velocidad y modo
plex.
NOTA: la luz indicadora delnculo del adaptador podría
encenderse incluso si la comunicación entre el adaptador y el
interlocutor denculo no se ha establecido correctamente.
Técnicamente, la luz indicadora del enlace representa la
presencia de una señal de que hay dispositivo portador, pero
no necesariamente la posibilidad de comunicarse
correctamente con un interlocutor de enlace. Se trata de un
comportamiento previsto y se ajusta a la especificación IEEE
relativa al funcionamiento del nivel físico.
La luz RX o TX está apagada Es probable que la red esté inactiva; intente crear tfico a la vez que
observa las luces.
La utilidad de diagnóstico informa que el
adaptador "No está habilitado por el BIOS"
BIOS PCI no está configurando correctamente el adaptador. Consulte
la configuración de PCI/PCI-X/PCI Express.
Resolución de problemas
193
Problema Solución
El equipo se bloquea cuando se cargan los
controladores
Intente cambiar los valores de interrupción del BIOS PCI. Consulte la
configuración de PCI/PCI-X/PCI Express.
Configuración de PCI/PCI-X/PCI Express Si el SO no reconoce el adaptador o no funciona, poda tener que
cambiar algunos ajustes del BIOS. Realice las siguientes acciones
solo si tiene problemas con el adaptador y está familiarizado con la
configuración del BIOS.
l Verifique que el ajuste "Plug-and-Play" sea compatible con el
sistema operativo que se está utilizando.
l Aserese de que la ranura esté activada.
l Instale el adaptador en una ranura maestra de bus.
l Configure las interrupciones para la activación de nivel, y no
para la activación de umbral.
l Reserve interrupciones o direcciones de memoria. De esta
manera se evita que varios buses o ranuras de bus utilicen
las mismas interrupciones. Compruebe el BIOS de las
opciones de IRQ de PCI/PCI-X/PCIe.
Mensaje de controlador: "Rx/Tx está
deshabilitado en este dispositivo porque se
detectó un tipo de módulo SFP+ no compatible".
Ha instalado un módulo no compatible en el dispositivo. Consulte
Módulos SFP+ y QSFP+ compatibles para obtener una lista de los
módulos compatibles.
Varios adaptadores
Cuando configure un entorno con varios adaptadores, debe actualizar el software de todos los adaptadores de Intel del
sistema al s reciente.
Si el sistema tiene dificultades para detectar todos los adaptadores, considere lo siguiente:
l Si habilita Wake on LAN* (WoL) en más de dos adaptadores, esta función poda sobrecargar el sistema de
alimentación auxiliar del sistema, lo que podría ocasionar que no se pueda iniciar el sistema y otros problemas
impredecibles. Cuando se utilizan varios adaptadores de escritorio/administración, es recomendable instalar un
adaptador a la vez y que utilice la utilidad IBAUtil (ibautil.exe en \APPS\BOOTAGNT) para deshabilitar la función
WoL en los adaptadores que no requieren esta función. En los adaptadores de servidor, la configuración WoL está
desactivada de forma predeterminada.
l Los adaptadores que tienen Intel Boot Agent habilitado requerirán una parte de la memoria de arranque limitada por
cada adaptador habilitado. Deshabilite el servicio en los adaptadores que no necesitan iniciar PXE (Pre-Boot
Execution Environment).
Modo seguro
Los adaptadores basados en la controladora de Ethernet Intel® serie 800 requieren un archivo de paquete de
personalización dinámica de dispositivos (DDP) para habilitar las funciones avanzadas y de rendimiento. Si el controlador
detecta que falta un archivo de paquete de DDP o este es incompatible, el controlador se pond en modo seguro. El modo
seguro solo admite el tráficosico y las funciones mínimas, como la actualización de la NVM o la descarga de un nuevo
controlador o paquete de DDP.
NOTAS:
l El modo seguro solo se aplica a la función física afectada y no afecta a ninguna
otra PF.
l El modo de recuperación de firmware tiene prioridad con respecto al modo
seguro.
Resolución de problemas
194
Errores y mensajes del modo seguro
Cuando el controlador está en modo seguro, los controladores y las utilidades del dispositivo pueden registrar o mostrar
mensajes para ayudar con la resolución de problemas. Las siguientes condiciones pueden provocar que el controlador
entre en modo seguro:
l No se encont el archivo del paquete de DDP o no se pudo leer.
l El número de versión, la firma u otros metadatos del archivo del paquete de DDP no son válidos o no son
compatibles con el controlador.
l Ocurrió un error desconocido al cargar el paquete de DDP.
l El controlador no pudo cargar el archivo del paquete de DDP porque ya hay un paquete de DDP compatible en el
dispositivo.
l El dispositivo tiene un paquete de DDP que no es compatible con el controlador.
Resolver problemas del modo seguro
Los controladores del dispositivo y las utilidades pueden mostrar la acción a realizar para salir del modo seguro,
dependiendo de la causa subyacente. Algunas posibles acciones podrían ser las siguientes:
l Esperar a que el dispositivo se reinicie.
l Instalar el controlador más reciente.
l Descargar un nuevo paquete de DDP.
l Reiniciar el adaptador. Si el problema persiste, instale el controlador más reciente.
l Reinicie el sistema. Si el problema persiste, actualice la NVM.
Puede descargar los últimos controladores y paquetes de DDP desde el sitio web de asistencia de Dell.
Desbordamiento de la cola de mensajes de la PF
El controlador del dispositivo puede detectar algunos tipos de comportamientos anómalos. Cuando lo hace, registra la
dirección MAC de la VF y la dirección MAC de la PF asociada. Con esta información, puede comprobar la máquina virtual
(VM) que está usando la dirección MAC de la VF para garantizar que la VM esté funcionando correctamente.
Posibles configuraciones erróneas del puerto Ethernet
Es posible que vea un mensaje informativo que diga que se ha detectado una posible configuración errónea del puerto
Ethernet. Esto es para alertarle de que su dispositivo se está infrautilizando. Si esto ha sido de forma intencionada, puede
ignorar el mensaje. Por ejemplo, establecer su adaptador Ethernet Intel® 100G 2P E810-C en 2x2x25 es válido, pero no
usa todas las capacidades del dispositivo.Si ve este mensaje y la configuración no fue intencionada, puede utilizar la
herramienta de configuración de puertos Ethernet (EPCT) para corregir la configuración.
Otros aspectos del rendimiento
Para conseguir la mayor velocidad, es necesario que muchos componentes funcionen con la máxima eficiencia. Entre ellos
se encuentran los siguientes:
l Calidad y longitud del cable: no sobrepase la longitud máxima recomendada para el tipo de cable. Los cables más
cortos suelen proporcionar mejores resultados. Compruebe si hay conectores dañados o que no estén
correctamente conectados. Compruebe si alguna sección del cableado está retorcida o dañada.
l Velocidad de bus y tráfico: la velocidad del bus de PCI se adapta a la de la tarjeta PCI s lenta instalada.
Compruebe si hay alguna tarjeta que esté ralentizando su sistema.
l Procesador y memoria: compruebe los programas de supervisión del rendimiento para determinar si el tfico se
ve afectado por la velocidad del procesador, la memoria disponible u otros procesos.
l Tamaño de tramas de transmisión: puede mejorar el rendimiento de la red si ajusta o maximiza el tamaño de la
trama de transmisión. Los sistemas operativos, conmutadores y adaptadores impondrán distintos límites al tamaño
máximo de trama. Consulte la información sobre tramas Jumbo de su sistema operativo.
l Sistema operativo: la implementación de las funciones de redes, como la descarga o los subprocesos con
múltiples procesadores, puede variar según la versión de su sistema operativo.
Resolución de problemas
195
Prueba del adaptador
El software de diagstico de Intel permite probar el adaptador para ver si existe algún problema físico en el mismo, en el
cable o en la conexión de red.
Prueba desde Windows
Intel PROSet permite ejecutar tres tipos de pruebas de diagnóstico:
l Prueba de conexión: esta prueba verifica la conectividad con la red mediante el envío de ping al servidor DHCP, al
servidor WINS y a la puerta de enlace.
l Pruebas de cable: estas pruebas proporcionan información acerca de las propiedades del cable.
NOTA: la prueba de cable no es compatible con todos los
adaptadores y no se puede ejecutar en cables de conexión directa
(DAC) ni en fibra. Esta prueba solo estará disponible en los
adaptadores que puedan soportarla.
l Prueba de hardware: determina si el adaptador está funcionando correctamente.
NOTA: las pruebas de hardware no arrojarán resultados satisfactorios si el adaptador está configurado para
iSCSI Boot.
Para obtener acceso a estas pruebas, seleccione el adaptador en el Administrador de dispositivos de Windows, haga clic
en la ficha Enlace y haga clic en Diagnóstico. Aparece una ventana de diagnóstico con fichas para cada tipo de prueba.
Haga clic en la ficha pertinente y ejecute la prueba.
Utilice el panel Diagnostics (Diagnóstico) en Intel® PROSet ACU.
La disponibilidad de estas pruebas depende del adaptador y el sistema operativo. Las pruebas se pueden desactivar si:
l iSCSI Boot está habilitado en el puerto.
l El puerto se utiliza como puerto de capacidad de gestión.
l Las pruebas se ejecutan desde una máquina virtual.
NOTA: en este momento, los diagsticos de Windows no son compatibles con los puertos basados en una
controladora de Ethernet Intel I225 y fallarán.
Prueba desde Windows PowerShell*
Intel le ofrece dos cmdlets de PowerShell para probar su adaptador.
l Test-IntelNetDiagnostics ejecuta las pruebas especificadas en el dispositivo especificado. Si desea más
información, consulte la ayuda de Test-IntelNetDiagnostics en PowerShell.
l Test-IntelNetIdentifyAdapter hace parpadear el LED en el dispositivo especificado.
Diagsticos de Linux
El controlador utiliza la interfaz ethtool para la configuración y el diagstico del controlador, al igual que para mostrar
información estadística. Se requiere la versión 1.6 o posterior de ethtool para esta funcionalidad.
La revisión más reciente de ethtool se encuentra en: http://sourceforge.net/projects/gkernel.
NOTA: ethtool 1.6 solo admite un conjunto limitado de opciones de ethtool. La compatibilidad con un conjunto más
completo de funciones ethtool puede habilitarse obteniendo la última versión de la herramienta.
Resolución de problemas
196
Registro de eventos de Windows*
Nombres de servicio de registro de eventos de Windows
Controladora de Ethernet
Intel®
Nombres de archivo de controlador
NDIS
Nombre de servicio de registro de eventos de
Windows
I350 E1r*.sys e1rexpress
I354 E1s*.sys e1sexpress
X520 Ixn*.sys ixgbn
X540 Ixt*.sys ixgbt
X550 Ixs*.sys ixgbs
Serie 710 I40ea*.sys i40ea
Serie 810 icea.sys icea
Mensajes de adaptadores de red Inte
A continuación se ofrece una lista de los mensajes de eventos personalizados que aparecen en el registro de eventos de
Windows para los adaptadores de Ethernet Intel® .
ID del
evento
Mensaje Importancia
1 El rol de Hyper-V se ha deshabilitado en el sistema. Todos los dispositivos de Ethernet Intel®
configurados con un perfil de rendimiento de virtualización se cambiaron por un perfil de
rendimiento más adecuado.
Información
6 PROBLEMA: No se pudieron asignar los registros de mapa necesarios para la operación.
ACCIÓN: Reduzca elmero de descriptores de transmisión y reinicie.
Error
7 PROBLEMA: No se pudo asignar una interrupción al adaptador de red.
ACCIÓN: Utilice otra ranura PCI Express.
ACCIÓN: Instale el controlador más reciente a tras de
https://www.intel.es/content/www/es/es/support.html.
Error
23 PROBLEMA: La EEPROM del adaptador de red poda estar dañada.
ACCIÓN: Visite el sitio web de asistencia en https://www.intel.es/content/www/es/es/support.html.
Error
24 PROBLEMA: No se pudo iniciar el adaptador de red.
ACCIÓN: Instale el controlador más reciente a tras de
https://www.intel.es/content/www/es/es/support.html.
Error
25 PROBLEMA: La dirección MAC en el adaptador de red no es válida.
ACCIÓN: Visite https://www.intel.es/content/www/es/es/support.html para obtener ayuda.
Error
27 El enlace de red está desconectado. Advertencia
30 PROBLEMA: El adaptador de red se ha configurado para la negociación automática pero no
sucede lo mismo con el interlocutor del enlace. Se podría dar una falta de correspondencia del
plex.
ACCIÓN: Configure el interlocutor de enlace para la negociación automática.
Advertencia
31 Se ha establecido el enlace de red en 10 Gbps dúplex completo. Información
32 Se ha establecido el enlace de red en 1 Gbps dúplex completo. Información
Resolución de problemas
197
ID del
evento
Mensaje Importancia
33 Se ha establecido el enlace de red en 100 Mbps dúplex completo. Información
34 Se ha establecido el enlace de red en 100 Mbps dúplex medio. Información
35 Se ha establecido el enlace de red en 10 Mbps plex completo. Información
36 Se ha establecido el enlace de red en 10 Mbps plex medio. Información
37 PROBLEMA: El ancho de banda de PCI Express disponible para este adaptador no es suficiente
para un rendimiento óptimo.
ACCIÓN: mueva el adaptador a una ranura PCI Express x8.
Advertencia
40 Intel SmartSpeed ha reducido la velocidad del enlace de la que se anuncia como máxima. Información
41 Se ha detenido el controlador de adaptador de red. Información
42 Se ha iniciado el controlador de adaptador de red. Información
43 PROBLEMA: No se pudo asignar la memoria compartida necesaria para la operación.
ACCIÓN: Reduzca elmero de descriptores de transmisión y recepción, y luego reinicie.
Error
44 PROBLEMA: No se pudo asignar la memoria necesaria para la operación.
ACCIÓN: Reduzca elmero de descriptores de transmisión y recepción, y luego reinicie.
Error
45 PROBLEMA: No se pudo asignar un contenedor de recursos necesario para la operación.
ACCIÓN: Reduzca elmero de descriptores de transmisión y recepción, y luego reinicie.
Error
46 PROBLEMA: No se pudieron inicializar los recursos DMA de distribución y recopilación que se
necesitan para la operación.
ACCIÓN: Reduzca elmero de descriptores de transmisión y reinicie.
Error
47 PROBLEMA: No se pudo asignar la flash del adaptador de red.
ACCIÓN: Instale el controlador más reciente a tras de
https://www.intel.es/content/www/es/es/support.html.
ACCIÓN: Utilice otra ranura.
Error
48 PROBLEMA: Falló el ventilador del adaptador de red.
ACCIÓN: Apague el equipo y reemplace el adaptador de red.
Error
49 PROBLEMA: El controlador no se pudo cargar debido a que se ha instalado un módulo SFP+ no
compatible en el adaptador.
ACCIÓN: Reemplace el dulo.
ACCIÓN: Instale el controlador más reciente a tras de
https://www.intel.es/content/www/es/es/support.html.
Error
50 PROBLEMA: El adaptador de red se ha detenido porque se ha recalentado.
ACCIÓN: Reinicie el equipo. Si el problema continúa, apague el equipo y reemplace el
adaptador de red.
Error
51 PROBLEMA: La velocidad del enlace del adaptador de red se ha reducido porque se ha
recalentado.
Error
52 PROBLEMA: El adaptador de red se ha detenido porque se ha recalentado. Error
53 Las tramas Jumbo no se pueden configurar cuando MACSec está habilitado. Información
54 PROBLEMA: Se ha detectado un controlador VF malintencionado. Advertencia
56 El controlador de red se ha detenido porque se ha eliminado el adaptador de red. Información
Resolución de problemas
198
ID del
evento
Mensaje Importancia
58 Se ha establecido el enlace de red en 25 Gbps dúplex completo. Información
60 Se ha establecido el enlace de red en 50 Gbps dúplex completo. Información
61 Se ha establecido el enlace de red en 20 Gbps dúplex completo. Información
64 El ID de etrack de este adaptador de red es: Información
65 PROBLEMA: El ancho de banda de PCI Express disponible para este adaptador no es suficiente
para un rendimiento óptimo.
ACCIÓN: Mueva el adaptador a una ranura PCI Express x4 de generación 3.
Advertencia
66 PROBLEMA: El ancho de banda de PCI Express disponible para este adaptador no es suficiente
para un rendimiento óptimo.
ACCIÓN: Mueva el adaptador a una ranura PCI Express x8 de generación 3.
Advertencia
67 La partición ha detectado una velocidad de enlace que es inferior a 10 Gbps. Advertencia
68 El controlador del dispositivo se ha detenido porque la imagen NVM es más nueva que el
controlador. Debe instalar la versión más reciente del controlador de red.
Error
69 El controlador del dispositivo ha detectado una versión s nueva de lo esperado de la imagen
NVM. Instale la versión más reciente del controlador de red.
Advertencia
70 El controlador del dispositivo ha detectado una versión s antigua de lo esperado de la imagen
NVM. Actualice la imagen NVM.
Información
71 El controlador no se pudo cargar debido a que se detectó un tipo de módulo incompatible. Error
72 PROBLEMA: el controlador no se ha cargado porque el adaptador no proporcio recursos de
interrupción MSI-X.
ACCIÓN: mueva el adaptador a otra ranura o plataforma.
Error
73 Los ajustes de usuario "Velocidad y dúplex" y "Control de flujo" no se pueden modificar, ya que
este dispositivo funciona en modo de conexión virtual.
Información
Mensajes de Intel DCB
A continuación se ofrece una lista de los mensajes personalizados de eventos de los controladores intermedios que
aparecen en el registro de eventos de Windows:
ID del
evento
Mensaje Importancia
256 Cadena de depuración de servicio Información
257 La característica de Selección mejorada de la transmisión se ha habilitado en un dispositivo. Información
258 La característica de Selección mejorada de la transmisión se ha deshabilitado en un dispositivo. Información
259 La característica de Control de flujo de prioridad se ha habilitado en un dispositivo. Información
260 La característica de Control de flujo de prioridad se ha deshabilitado en un dispositivo. Información
261 La característica de Selección mejorada de la transmisión en un dispositivo se ha modificado a
operativa.
Información
262 La característica de Control de flujo de prioridad en un dispositivo se ha modificado a operativa. Información
263 La característica de Aplicación en un dispositivo se ha modificado a operativa. Información
Resolución de problemas
199
ID del
evento
Mensaje Importancia
264 La característica de Aplicación se ha deshabilitado en un dispositivo. Información
265 La característica de Aplicación se ha habilitado en un dispositivo. Información
269 La característica de Enlace lógico en un dispositivo se ha modificado a operativa. Información
270 La característica de Enlace lógico se ha deshabilitado en un dispositivo. Información
271 La característica de Enlace lógico se ha habilitado en un dispositivo. Información
768 El servicio ha fallado durante el inicio. Error
770 El gestor de servicio ha fallado durante la instalación. Error
771 El servicio no ha podido asignar memoria suficiente. Error
772 El servicio no puede utilizar el adaptador de red. Error
773 El servicio ha rechazado la configuración: el total no es válido para grupos de ancho de banda
de transmisión.
Error
774 El servicio ha rechazado la configuración: el total no es válido para grupos de ancho de banda
de recepción.
Error
775 El servicio ha rechazado la configuración: el índice de grupos de ancho de banda de transmisión
no es válido.
Error
776 El servicio ha rechazado la configuración: el índice de grupos de ancho de banda de recepción
no es válido.
Error
777 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda distinto
de cero en la clase de tfico de transmisión.
Error
778 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda distinto
de cero en la clase de tfico de recepción.
Error
779 El servicio ha rechazado la configuración: ancho de banda cero en la clase de tfico de
transmisión.
Error
780 El servicio ha rechazado la configuración: ancho de banda cero en la clase de tfico de
recepción.
Error
781 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda distinto
de cero en el grupo de ancho de banda de transmisión.
Error
782 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda distinto
de cero en el grupo de ancho de banda de recepción.
Error
783 El servicio ha rechazado la configuración: el total no es válido para el grupo de ancho de banda
de transmisión.
Error
784 El servicio ha rechazado la configuración: el total no es válido para el grupo de ancho de banda
de recepción.
Error
785 El servicio no puede configurar los servicios WMI necesarios. Error
786 El servicio ha tenido un error de máquina de estado de transmisión. Error
787 El servicio ha tenido un error de máquina de estado de recepción. Error
789 La conexión del servicio al controlador de protocolo LLDP ha fallado. Error
Resolución de problemas
200
ID del
evento
Mensaje Importancia
790 La característica de Selección mejorada de la transmisión en un dispositivo se ha modificado a
no operativa.
Error
791 La característica de Control de flujo de prioridad en un dispositivo se ha modificado a no
operativa.
Error
792 La característica de Aplicación en un dispositivo se ha modificado a no operativa. Error
793 El servicio ha rechazado la configuración: se han detectado varios grupos de ancho de banda de
algoritmo estricto de enlace.
Error
794 La característica de Enlace lógico en un dispositivo se ha modificado a no operativa. Error
795 Error al abrir el dispositivo. Error
796 La configuración de DCB del adaptador de red no es válida. Error
797 La configuración de DCB del adaptador de red no es válida: AppSelector. Error
798 Se ha detectado un componente del controlador del adaptador de red en estado no óptimo.
Instale la versión 3.5 o superior del controlador del adaptador de red.
Error
Mensajes de DCB de Intel iSCSI
A continuación se ofrece una lista de los mensajes personalizados de eventos de los controladores intermedios que
aparecen en el registro de eventos de Windows:
ID del
evento
Mensaje Importancia
4352 Cadena de depuración de servicio: Información
4353 El Agente DCB de iSCSI ha agregado un filtro QOS para el tfico de iSCSI. Información
4354 El Agente DCB de iSCSI ha eliminado un filtro QOS para el tfico de iSCSI. Información
4355 El Agente DCB de iSCSI ha modificado un filtro QOS para el tfico de iSCSI. Información
4356 El servicio QOS ha notificado al Agente DCB de iSCSI que se ha cerrado un adaptador DCB de
iSCSI.
Información
4357 El Control de flujo de prioridad y la Prioridad de usuario de aplicación se han configurado para
el tfico DCB de iSCSI.
Información
8704 Algunos miembros del equipo configurado para el tfico DCB de iSCSI tienen una
configuración DCB que no es válida.
Advertencia
13056 El servicio ha fallado durante el inicio. Error
13057 El gestor de servicio ha fallado durante la instalación. Error
13058 Error devuelto por la interfaz de control de tfico. Error
13059 El servicio no ha podido asignar memoria suficiente. Error
13060 El Agente DCB de iSCSI no puede agregar el filtro QOS para el tfico de iSCSI. Error
13061 El servicio QOS ha notificado al Agente DCB de iSCSI que se han eliminado todos los filtros
QOS para un adaptador DCB de iSCSI.
Error
Resolución de problemas
201
ID del
evento
Mensaje Importancia
13062 La Prioridad de usuario de aplicación o el Control de flujo de prioridad están mal configurados
para el tfico DCB de iSCSI.
Error
13063 El TLV de Control de flujo de prioridad no está operativo para el tfico DCB de iSCSI. Error
13064 El TLV de Aplicación no está operativo para el tráfico DCB de iSCSI. Error
13065 Se ha detectado un sistema operativo incompatible. Error
13066 Ningún miembro del equipo configurado para el tfico DCB de iSCSI tiene una configuración
DCB válida.
Error
Resolución de problemas
202
Luces indicadoras
Los adaptadores de red para servidor y equipo de sobremesa de Intel incluyen luces indicadoras en la placa posterior del
adaptador que sirven para indicar la actividad y el estado de la tarjeta del adaptador. Las siguientes tablas definen el
significado de los posibles estados de las luces indicadoras para cada tarjeta del adaptador.
Adaptadores QSFP+ de doble puerto
Etiqueta Indicacn Significado
ACT/LNK
Verde Conectado a 40 Gb
Activación/desactivación del parpadeo Transmisión o recepción activa de datos
Desactivado No hay enlace
El adaptador de red convergente Ethernet Intel® XL710-Q2 tiene las siguientes luces indicadoras:
Resolución de problemas
203
Adaptadores de doble puerto SFP28
Etiqueta Indicacn Significado
GRN 25G
Verde
Conectado a la máxima
velocidad de puerto
Amarillo
Conectado a una
velocidad de puerto
inferior a la xima
ACTIVIDAD
Activación/desactivación del
parpadeo
Transmisión o
recepción activa de
datos
Desactivado No hay enlace
Los adaptadores Ethernet Intel® 25G 2P E810-XXV y Ethernet Intel® 25G 2P XXV710 tienen las siguientes luces indi-
cadoras:
Etiqueta Indicación Significado
LNK
Verde
Funcionando a la xima velocidad de
puerto
Amarillo
Conectado a una velocidad de puerto
inferior a la xima
ACT
Verde parpadeando Actividad de datos
Desactivado No hay actividad
El Ethernet Intel® 25G 2P E810-XXV OCP tiene las siguientes luces indicadoras:
Resolución de problemas
204
Adaptadores SPF/SFP+ de doble puerto
Etiqueta Indicacn Significado
LNK
Verde Funcionando a la máxima velocidad de puerto
Amarillo Conectado a una velocidad de puerto inferior a la máxima
ACT
Verde parpadeando Actividad de datos
Desactivado No hay actividad
El Ethernet Intel® 10G 2P X710 OCP cuenta con las siguientes luces indicadoras:
Etiqueta Indicacn Significado
LNK
Verde Conectado a 10 Gb
Amarillo Conectado a 1 Gb
ACT
Activación/desactivación del parpadeo Transmisión o recepción activa de datos
Desactivado No hay enlace
El adaptador de red convergente Ethernet Intel® X710 tiene las siguientes luces indicadoras:
Resolución de problemas
205
Etiqueta Indicacn Significado
GRN 10G
(A o B):
verde
Activado Conectado a la LAN
Desactivado No conectado a la LAN
ACT/LNK
(A o B):
verde
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos
Desactivado No hay enlace
El adaptador Intel® 10G 2P X520 tiene las siguientes luces indicadoras:
Adaptadores SPF/SFP+ de cuatro puertos
Etiqueta Indicación Significado
Enlace
Verde Conectado a la máxima velocidad de puerto
Amarillo
Conectado a una velocidad de puerto inferior a
la máxima
ACTIVIDAD
Activación/desactivación del
parpadeo
Transmisión o recepción activa de datos
Desactivado No hay enlace
El Ethernet Intel® 10G 4P X710 OCP tiene las siguientes luces indicadoras:
Resolución de problemas
206
Adaptadores de cobre de doble puerto
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gbps
Amarillo
Conectado a una velocidad inferior a
10 Gbps
Desactivado No hay enlace
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos
Desactivado No hay enlace
El adaptador Ethernet Intel® 10G 2P X710-T2L-t OCP cuenta con las siguientes luces indicadoras:
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gbps
Amarillo
Conectado a una velocidad inferior a 10
Gbps
Desactivado No hay enlace
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de datos
Desactivado No hay enlace
El adaptador Ethernet Intel® 10G 2P X710-T2L-t cuenta con las siguientes luces indicadoras:
Resolución de problemas
207
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gbps
Amarillo Conectado a menos de 10 Gbps
Desactivado No hay enlace
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos
Desactivado No hay enlace
El adaptador Ethernet Intel® 10G 2P X550-t tiene las siguientes luces indicadoras:
Resolución de problemas
208
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gb
Amarillo Conectado a menos de 10 Gb
Desactivado No hay enlace
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos
Desactivado No hay enlace
El adaptador Ethernet Intel® 10G 2P X540-t tiene las siguientes luces indicadoras:
Etiqueta Indicación Significado
ACT/LNK
Verde
encendido
El adaptador está conectado con un interlocutor de enlace
válido
Verde
parpadeando
Actividad de datos
Desactivado No hay enlace
10/100/1000
Desactivado 10 Mbps
Verde 100 Mbps
Amarillo 1000 Mbps
Naranja
parpadeando
Identidad. Use el botón "Identify Adapter" (Identificar
adaptador) en Intel PROSet para controlar el parpadeo. Si
desea más información consulte la ayuda de Intel PROSet
El adaptador Intel® Gigabit 2P I350-t tiene las luces indicadoras siguientes:
Resolución de problemas
209
Adaptadores de cobre de cuatro puertos
Etiqueta Indicacn Significado
Enlace
Verde Conectado a 10 Gbps
Amarillo Conectado a una velocidad inferior a 1 Gbps
Desactivado No hay enlace
Actividad
Activación/desactivación del parpadeo Transmisión o recepción activa de datos
Desactivado No hay enlace
El Ethernet Intel® 10G 4P X710-T4L-t OCP tiene las siguientes luces indicadoras:
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gbps
Amarillo
Conectado a una velocidad inferior a 10
Gbps
Desactivado No hay enlace
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de datos
Desactivado No hay enlace
El adaptador Ethernet Intel® 10G 4P X710-T4L-t tiene las siguientes luces indicadoras:
Resolución de problemas
210
Etiqueta
Indicacn Significado
ACT
Verde encendido
El adaptador está conectado con un interlocutor de enlace
válido
Verde
parpadeando
Actividad de datos
Desactivado No hay enlace
LNK
Verde 10 Gbps
Amarillo 1 Gbps
Desactivado 100 Mbps
El adaptador de red convergente Ethernet Intel® X710 y el adaptador de red convergente Ethernet Intel® X710-T tienen
las siguientes luces indicadoras:
Etiqueta Indicación Significado
ACT/LNK
Verde
encendido
El adaptador está conectado con un interlocutor de enlace válido
Verde
parpadeando
Actividad de datos
Desactivado No hay enlace
10/100/1000
Verde 100 Mbps
Amarillo 1000 Mbps
Naranja
parpadeando
Identidad. Use el botón "Identify Adapter" (Identificar adaptador)
en Intel® PROSet para controlar el parpadeo. Si desea más
información consulte la ayuda de Intel PROSet
Desactivado 10 Mbps
El adaptador Intel® Gigabit 4P I350-t tiene las luces indicadoras siguientes:
Resolución de problemas
211
rNDC (tarjetas dependientes de red de bastidor)
Etiqueta Indicacn Significado
LNK (verde/amarillo) Verde encendido Funcionando a máxima velocidad de puerto
Desactivado No hay enlace
ACT (verde) Verde parpadeando Actividad de datos
Desactivado No hay actividad
El Ethernet Intel® 40G 2P XL710 QSFP+ rNDC tiene las siguientes luces indicadoras:
Resolución de problemas
212
Etiqueta Indicacn Significado
LNK
(verde/amarillo)
Verde encendido Funcionando a máxima velocidad de
puerto
Amarillo
encendido
Funcionando a mínima velocidad de
puerto
Desactivado No hay enlace
ACT (verde) Verde
parpadeando
Actividad de datos
Desactivado No hay actividad
Ethernet Intel® 1G 4P I350-t OCP, Ethernet Intel® 10G 4P X550/I350 rNDC, InteGigabit 4P X550/I350 rNDC, Ethernet
Intel® 10G 4P X550 rNDC, Ethernet Intel® 10G 4P X540/I350 rNDC, Intel® Gigabit 4P X540/I350 rNDC e Intel® Gigabit
4P I350-t rNDC tienen las siguientes luces indicadoras:
Resolución de problemas
213
Etiqueta Indicacn Significado
LNK
(verde/amarillo)
Verde encendido Funcionando a máxima velocidad de
puerto
Amarillo encendido Funcionando a mínima velocidad de
puerto
Desactivado No hay enlace
ACT (verde) Verde
parpadeando
Actividad de datos
Desactivado No hay actividad
El Ethernet Intel® 10G 4P X520/I350 rNDC, Intel® Gigabit 4P X520/I350 rNDC, Ethernet Intel® Gigabit 4P x710/I350
rNDC e Intel® 10G 4P X710/I350 rNDC tienen las siguientes luces indicadoras:
214
Transición de i40evf a iavf
Visión general
Intel ha creado el controlador Intel® Adaptive Virtual Function (iavf) con el fin de proporcionar una interfaz de función virtual
(VF) coherente y que resista el paso del tiempo para las controladoras de Ethernet Intel®. Anteriormente, al actualizar el
hardware de red, era necesario sustituir los controladores de cada quina virtual (VM) por nuevos controladores capaces
de acceder al nuevo dispositivo de VF proporcionado por el nuevo hardware. El controlador iavf permite actualizar el
hardware de red sin necesidad de actualizar el controlador de VF en las VM existentes.
La compatibilidad con funciones virtuales adaptables se añadió en un principio a los controladores i40evf existentes para
sistemas operativos Microsoft* Windows Server* y Linux*. Intel cambió el nombre del controlador i40evf a iavf con el fin de
aclarar que el controlador iavf será el controlador de VF en futuros dispositivos más allá de los dispositivos compatibles con
el controlador i40e. La versión 18.8.0 fue la última versión que contenía i40evf. La versión 19.0.0 es la primera versión que
contiene iavf.
Dispositivos compatibles
El controlador iavf es compatible con dispositivos basados en la controladora de Ethernet Intel® serie 800 y la controladora
de Ethernet Intel® serie 700.
Sistemas operativos admitidos
l Novell* SUSE* Linux Enterprise Server (SLES) 15 SP1 y posteriores
l Red Hat* Enterprise Linux* (RHEL) 7.6 y posteriores
l RHEL 8.0 y posteriores
l Microsoft* Windows Server* 2016
l Microsoft* Windows Server* 2019 (x64 Edition)
Transición de i40evf a iavf en sistemas operativos Linux
NOTAS:
l No utilice el dispositivo con i40evf como interfaz principal para acceder a la máquina virtual. Debe contar con
otra forma de interactuar con la máquina virtual de forma que no pierda la conexión cuando deshabilite el
controlador i40evf.
l Si está utilizando un kernel/distribución que no contiene iavf y actualiza el kernel/distribución, aserese de
que iavf sigue cargado desps de la actualización.
Actualizacn del kernel
Si solamente utiliza los controladores en el kernel o la distribución, no tend que hacer nada hasta que actualice al kernel
o distribución que contengan el controlador iavf. Llegados a este punto, deberá actualizar cualquier secuencia de
comandos que llame al controlador por nombre.
Si realiza la actualización desde kernel.org, obtend autoticamente el controlador iavf.
Mediante el RPM de Linux
1. Copie el archivo tar del controlador iavf en su imagen de máquina virtual.
2. Descargue el anterior controlador.
rmmod i40evf
3. Compile el módulo del controlador.
rpmbuild -tb /path/to/the/driver/file/iavf-[versión].tar.gz
Transición de i40evf a iavf
215
4. Instale el controlador.
a. RHEL:
rpm -i /root/rpmbuild/RPMS/x86_64/iavf-[versión]-1.x86_64.rpm
b. SLES:
rpm -i /usr/src/packages/RPMS/x86_64/iavf-[versión]-1.x86_64.rpm
5. Cargue el nuevo módulo del controlador.
modprobe iavf
Instalación mediante el tarball de Linux
1. Copie el archivo tar del controlador iavf en su imagen de máquina virtual.
2. Descomprima el archivo tar.
tar zxf iavf-<x.x.x>.tar.gz
donde
<x.x.x> es el número de versión del archivo tar del controlador.
3. Cambie al directorio de src en el archivo del controlador que ha descomprimido.
4. Compile el módulo del controlador.
make
make install
5. Aserese de eliminar los controladores i40evf antiguos del kernel antes de cargar el nuevo módulo.
rmmod i40evf
6. Cargue el nuevo módulo del controlador.
modprobe iavf
NOTAS: El comando "make install":
l Crea el /etc/modprobe.d/iavf-blacklist-i40evf.conf que contiene blacklist
i40evf.
l ade la línea "alias i40evf iavf" a la configuración de modprobe.
Preguntas acerca de Linux
Solamente utilizo controladores de bandeja de entrada de kernel/distribución. ¿Tengo entonces que hacer algo?
No tendrá que hacer nada hasta que actualice el sistema operativo de su máquina virtual. Si actualiza el kernel/distribución
de su máquina virtual a uno que contenga iavf, deberá actualizar todas las secuencias de comandos que llamen al
controlador.
¿Qué ocurre si deseo mantener i40evf y actualizar solamente el controlador de PF a la última versn?
Esta configuración no es compatible. Realice la transición de su controlador a iavf cuando actualice su controlador de PF.
La versión 18.8.0 fue la última versión compatible con el controlador i40evf.
¿Qué ocurre si deseo mantener la anterior PF y realizar únicamente la transición de laquina virtual a iavf?
En este caso, no debe haber ninn tipo de problema. Si lo hubiera, la actualización del controlador de PF debería resolver
cualquier problema existente.
Tengo secuencias de comandos que hacen referencia a los controladores de la VF por nombre, ¿es necesario que
cambie las secuencias de comandos?
Sí. Debe cambiar el nombre del controlador en sus secuencias de comandos, en lugar de utilizar un alias.
Si decido no llevar a cabo la transicn a los nuevos controladores iavf, ¿durante cuánto tiempo proporcionará Intel
soluciones para los anteriores controladores i40evf?
Transición de i40evf a iavf
216
Intel ha cambiado el nombre del controlador i40evf a iavf. Las futuras actualizaciones y soluciones se publican en el
controlador iavf.
¿Es necesario que desinstale el controlador i40evf?
No es algo absolutamente necesario, pero recomendamos desinstalar el controlador i40evf.
¿Existe alguna posibilidad de conflicto o situaciones en las que ambos controladores puedan coexistir en el mismo
sistema?
Ambos controladores pueden estar instalados en el sistema. La instalación del controlador iavf indica al sistema que debe
utilizarse el controlador iavf en lugar del controlador i40evf. Así pues, cuando el sistema realiza un sondeo en busca de
nuevos dispositivos y detecta un dispositivo compatible con controladores i40evf e iavf, se indica al sistema que siempre
utilice el controlador iavf.
Transición de i40evf a iavf en sistemas operativos Microsoft
Windows
NOTAS:
l No utilice el dispositivo con i40evf como interfaz principal para acceder a la máquina virtual. Debe contar con
otra forma de interactuar con la máquina virtual de forma que no pierda la conexión cuando deshabilite el
controlador i40evf.
1. Copie el paquete de instalación de iavf en su imagen de máquina virtual.
2. Utilice la opción Agregar o quitar programas para eliminar el controlador i40evf.
3. Ejecute el paquete de instalación de iavf para instalar el controlador iavf.
Si el controlador i40evf no se muestra en Agregar o quitar programas, utilice el Administrador de dispositivos para
eliminarlo de todos los dispositivos NIC virtuales:
1. Abra el Administrador de dispositivos.
2. En Adaptadores de red, seleccione el dispositivo NIC virtual.
3. Haga clic con el botón derecho del ratón y seleccione Desinstalar.
4. En la ventana emergente, seleccione la opción Eliminar el software de controlador de este dispositivo.
5. Haga clic en Aceptar.
Preguntas acerca de Windows
¿Qué ocurre si deseo mantener i40evf y actualizar solamente el controlador de PF a la última versn?
Esta configuración no es compatible. Realice la transición de su controlador a iavf cuando actualice su controlador de PF.
La versión 18.8.0 fue la última versión compatible con el controlador i40evf.
¿Qué ocurre si deseo mantener la anterior PF y realizar únicamente la transición de laquina virtual a iavf?
En este caso, no debe haber ninn tipo de problema. Si lo hubiera, la actualización del controlador de PF debería resolver
cualquier problema existente.
¿Se sustituyen las entradas de registro de i40evf existentes o se crea un nuevo registro con los nombres del
controlador iavf para el mismo puerto?
Se sustituyen las entradas de registro de i40evf.
¿Qué ocurre con los archivos del controlador i40evf en system32? ¿Se eliminan?
No todos. Algunos se conservan.
217
Problemas conocidos
NOTA: los Problemas conocidos de iSCSI se encuentran en sus propias secciones de este manual.
Fibra óptica y negociación automática
Los módulos basados en 100GBASE-SR4, 40GBASE-SR4, 25GBASE-SR, cable óptico activo (AOC) y cable de cobre
activo (ACC) no admiten la negociación automática según la especificación IEEE. Para obtener un enlace con estos
módulos, debe desactivar la negociación automática en los puertos de conmutador del interlocutor de enlace.
Problemas de enlace a velocidades superiores a 10 Gbps
Si tiene problemas de enlace (incluso no hay enlace) a velocidades de enlace superiores a 10 Gbps, compruebe la
configuración o las especificaciones de su conmutador. Muchas conexiones ópticas y cables de conexión directa requieren
RS-FEC para velocidades de conexión superiores a 10 Gbps. Una de las siguientes opciones puede resolver el problema:
l Configure su conmutador para utilizar el modo RS-FEC.
l Especifique una conexión de velocidad de enlace de 10 Gbps o más lenta.
l Si intenta conectarse a 25 Gbps, pruebe a utilizar un cable SFP28 CA-S o CS-N de conexión directa. Estos cables
no requieren RS-FEC.
l Si su conmutador no admite el modo RS-FEC, compruebe con su proveedor de conmutadores la disponibilidad de
una actualización de SW o FW.
El cmdlet get-netadaptervmq de PowerShell muestra una cantidad inferior al número
esperado de colas de recepción
Tras la instalación del paquete de actualización de Dell (DUP), el cmdlet get-netadaptervmq de PowerShell indica que hay
31 colas por puerto. Comportamiento previsto. El DUP cambia la agrupación predeterminada de colas de parejas a grupos
de cuatro. En entornos anteriores a la instalación del DUP, las colas se emparejaban en grupos de dos. Tras la instalación
del DUP, las colas se unen en grupos de cuatro. Esto reduce elmero de colas mostradas por el cmdlet get-
netadaptervmq.
Las utilidades de actualización de NVM se cierran con errores en el kernel de Linux 4.16
o superior
En el kernel de Linux 4.16 o superior, si actualiza el controlador ixgbe, igb o i40e y luego ejecuta cualquiera de las
herramientas de actualización de NVM (NVMUpdate, NVMCheck o Bootutil), la herramienta puede salir con el error “The
selected adapter cannot be updated due to strict MMIO memory settings in the kernel”. Para solucionarlo, defina el
pametro del kernel iomem como "relaxed" (es decir, iomem=relaxed) y reinicie el sistema antes de volver a ejecutar la
herramienta. En el kernel 4.16 o superior, el parámetro iomem se define como "strict" de forma predeterminada, lo que
impide que las utilidades de actualización de NVM accedan a la MMIO del dispositivo.
El cambio a una versión anterior de firmware (a v18.0.x o anterior) falla en dispositivos
basados en X550
En los dispositivos basados en el X550, el cambio del firmware a la versión 18.0.x o anterior falla y puede provocar
problemas de incompatibilidad con la NVM y la versión de la ROM opcional. Para solucionar este problema, actualice a la
versión más reciente del firmware.
Se ha producido un error al actualizar un módulo en el adaptador Ethernet Intel® 10G 2P
X550-t mediante FW 17.5.0
Si utiliza el FW-DUP (paquete de actualización de Dell EMC) v17.5.0 para cambiar a una versión anterior del firmware en
un adaptador Ethernet Intel® 10G 2P X550-t, el DUP puede indicar “An error occurred when updating a module”. Ignore
este mensaje de error. Se ha cambiado a una versión anterior de FW correctamente.
Problemas conocidos
218
Error durante la POST: "Rx/Tx is disabled on this device because the module does not
meet thermal requirements" (Rx/Tx está deshabilitado en este dispositivo porque el
módulo no cumple con los requisitos térmicos)
Este error se produce debido a la instalación de un dulo en un dispositivo basado en X710 que no cumple con los
requisitos térmicos para ese dispositivo. Para solucionar este problema, instale un módulo que cumpla los requisitos
térmicos del dispositivo. Consulte la sección “Dispositivos SFP+ y QSFP+en este documento.
Error durante la POST: "Rx/Tx is disabled on this device because an unsupported SFP+
module type was detected" (Rx/Tx está deshabilitado en este dispositivo porque se
detectó un tipo de módulo SFP+ no compatible).
Este error se produce debido a la instalación de un dulo no compatible en un dispositivo basado en X710/XL710. No
pod enviar ni recibir tfico en este dispositivo. Para solucionar este problema, instale un módulo compatible. Consulte la
secciónDispositivos SFP+ y QSFP+en este documento.
Faltan los puertos de la función virtual en VMware ESX
Si habilita NPar y SR-IOV en el mismo dispositivo, el número de funciones virtuales habilitadas y mostradas en lspci puede
ser 8 o menos. ESX limita elmero de funciones virtuales a 8 por dispositivo. Además, debido a las limitaciones de ESXi,
elmero de funciones virtuales creado puede ser inferior a la cantidad solicitada. Si desea más detalles, consulte la
documentación de ESXi.
http://pubs.vmware.com/
Errores de marca amarilla de código 10 en una máquina virtual en el administrador de
dispositivos de Windows
En un sistema que ejecute Microsoft Windows Server 2016, dentro de una quina virtual que ejecuta Microsoft Windows
Server 2016 o Windows Server 2012 R2, las conexiones de Ethernet Intel pueden tener un código 10 de marca amarilla en
el administrador de dispositivos de Windows. La instalación de una actualización acumulativa que contenga Microsoft
KB3192366 y KB3176936 resolverá el problema.
Reducción de la productividad después del reemplazo en funcionamiento
Si un adaptador Intel Gigabit está bajo una tensión extrema y se realiza el intercambio en funcionamiento, la productividad
puede descender de manera significativa. Esto puede deberse a la configuración de propiedades de PCI realizada por el
software de conexión en funcionamiento. Si ocurre esto, se puede restaurar la productividad si se reinicia el sistema.
Utilización de la CPU mayor de lo esperado
Establecer RSS Queues en un valor mayor que 4 solo es recomendable en el caso de servidores grandes con varios
procesadores. Los valores mayores que 4 puede aumentar la utilización de la CPU a niveles inaceptables y tener otros
impactos negativos en el rendimiento del sistema.
Módulo SFP o SFP+ compatible no reconocido por el sistema
Si intenta instalar un módulo no compatible, el puerto ya no podrá instalar ningún dulo posteriormente,
independientemente de si el módulo es compatible o no. El puerto mostrará una marca amarilla en el Administrador de
dispositivos de Windows y se añadirá la ID de evento 49 (módulo no compatible) al registro del sistema cuando se
produzca este problema. Para solucionar el problema, el sistema debe estar completamente apagado.
Problemas conocidos
219
Problemas conocidos de Windows
No se puede apagar la máquina virtual
Múltiples eventos de conmutación por error de VF pueden dejar una VM en un estado inestable. Es posible que no pueda
apagar la VM. Reiniciar el host resolve el problema.
El tráfico no se transmite a través del túnel VXLAN
En un sistema que ejecuta Microsoft* Windows Server* 2016, el tráfico puede no transmitirse a tras de un túnel VXLAN.
La activación de las descargas de suma de comprobación de transmisión para el tipo de tráfico apropiado resolve el
problema. Por ejemplo, configure “TCP Checksum Offload (IPv4)” (Descarga de suma de comprobación TCP [IPv4]) como
“TX Enabled” (Transmisión habilitada) o “RX & TX Enabled” (Recepción y transmisión habilitadas).
Error de sondeo hv_vmbus en un invitado Linux en un sistema de Windows Server
En un sistema que ejecuta Microsoft Windows Server 2019 o Windows Server 2016 en el host y Linux en la VF, puede ver
un error “hv_vmbus: probe failed for device X” en dmesg después de cambiar un vSwitch de VMQ a SRIOV. Esto se debe a
un problema conocido de sincronización en el sistema operativo. No hay pérdida de funcionalidad, y la VF se iniciará con
éxito después de algunos sondeos fallidos.
La cadena de marca se muestra incompleta en el registro de eventos
Algunas cadenas de marca son demasiado largas y no pueden mostrarse completas en el registro de eventos. En estos
casos, la cadena de marca se truncará y el bus/dispositivo/función de PCI del puerto se agrega a la cadena. Por ejemplo:
Adaptador de red convergente Intel® Eth... [129,0,1].
La PcieLinkSpeed es desconocida
Cuando se instala un dispositivo con controladora de Ethernet Intel® serie 800 en una ranura PCI Gen 4, el sistema
operativo puede indicar PcieLinkSpeed como Unknown (Desconocida). Esto no afecta al funcionamiento del dispositivo.
El controlador listo para usar no se desinstala a través de Web Console Apps & Features (Aplicaciones y
características de la consola web)
No se puede utilizar el menú Web Console Apps & Features (Aplicaciones y características de la consola web) de Microsoft
Windows Server 2016 para desinstalar los controladores listos para usar. En su lugar, utilice la selección de Programas y
características en el Panel de control de Windows.
Falta un puerto en el controlador de ciclo de vida: configuración de red
Si un puerto está configurado para arranque iSCSI y se ha conectado correctamente a su destino de arranque, no se puede
modificar la configuración del puerto en el controlador de ciclo de vida.
Procedimiento para instalar y actualizar controladores y utilidades
Intel no recomienda instalar ni actualizar controladores y el software de Intel® PROSet a tras de una conexión de red. En
su lugar, instale o actualice controladores y utilidades de cada sistema.
La configuración de Propiedades avanzadas cambia mientras circula tráfico
En la ficha Advanced Properties de Intel® PROSet, no deben modificarse los pametros en condiciones de mucha carga
en la red. En caso contrario, puede ser necesario reiniciar para que los cambios entren en vigor.
Problemas conocidos
220
En un entorno Microsoft Hyper-V, las máquinas virtuales vinculadas a particiones NPAR no se comunican
unas con otras
En un entorno Microsoft Hyper-V, si habilita NPAR en un puerto y las máquinas virtuales están vinculadas a las particiones
de ese puerto, es posible que no puedan comunicarse entre ellas. La causa es que el conmutador virtual dentro de Hyper-V
envía los paquetes al puerto físico, que los envía al conmutador conectado al puerto. Es posible que el conmutador físico no
esté configurado para un relé reflectivo (tambn denominado modo "horquilla"), por lo que podría no enviar los paquetes
de vuelta en la misma conexión desde la que se recibieron. La conexión del puerto al conmutador apto del agregador de
puertos Ethernet virtuales (VEPA) soluciona este problema.
Los controladores Intel deben instalarse mediante el paquete de actualización de Dell EMC antes de con-
figurar las características de Microsoft Hyper-V
Antes de configurar las funciones de Microsoft* Hyper-V, el paquete de actualizaciones de Dell EMC debe haber instalado
los controladores NIC de Intel®. Si la función Microsoft* Hyper-V está configurada en una partición NIC no admitida en un
dispositivo X710 de Intel® antes de usar el paquete de actualizaciones de Dell EMC para instalar los controladores NIC de
Intel®, puede que la instalación del controlador no se complete. Para realizar la recuperación, debe desinstalar Microsoft*
Hyper-V, desinstalar "Conexiones de red Intel®" de "Programas y características" y usar el paquete de actualizaciones de
Dell EMC para instalar los controladores NIC de Intel®.
ID de evento de error de aplicación 789 y 790 en el registro de eventos
Si DCB (Puentes de centro de datos) está habilitado, y el puerto habilitado pierde el enlace, pueden registrarse los tres
eventos siguientes en el registro de eventos:
l ID de evento 789: la característica de selección mejorada de la transmisión en un dispositivo se ha modificado a no
operativa
l ID de evento 790: la característica de control de flujo de prioridad en un dispositivo se ha modificado a no operativa
Este es el comportamiento esperado cuando un puerto habilitado para DCB pierde un enlace. DCB empezará a funcionar
de nuevo en cuanto se restablezca el enlace. Un puerto perderá el enlace si se desconecta el cable, se actualiza el
controlador o el paquete de software, si cae el interlocutor del enlace, o por otros motivos.
Aviso "Malicious script detected" (Se ha detectado un archivo script malicioso) de Norton AntiVirus durante
la desinstalación de PROSet
El proceso de desinstalación de Intel PROSet utiliza un archivo script de Visual Basic como parte del proceso. Norton
AntiVirus y otros productos de software de exploración en busca de virus pueden marcarlo por error como un archivo script
malicioso o peligroso. Si deja que se ejecute el archivo script, el proceso de desinstalación finaliza normalmente.
Pérdida inesperada de la conectividad
Si elimina la selección del cuadro "Allow the computer to turn off this device to save power" (Permitir que el equipo
desactive este dispositivo para ahorrar energía) en la ficha Power Management y, a continuación, pone el sistema en modo
de reposo, es posible que pierda la conectividad cuando salga del modo de reposo. Debe deshabilitar y habilitar la NIC
para resolver el problema. Al instalar Intel® PROSet para el Administrador de dispositivos de Windows tambn resolve el
problema.
Configuración avanzada del perfil de equilibrio de carga de RSS
Configurar el ajuste avanzado del "perfil de equilibrio de carga de RSS" como "ClosestProcessor" puede reducir
significativamente el uso de CPU. Sin embargo, en algunas configuraciones del sistema (como un sistema con s puertos
Ethernet que núcleos de procesador), el ajuste "ClosestProcessor" puede causar errores de transmisión y recepción.
Cambiar el ajuste a "NUMAScalingStatic" resolverá el problema.
Problemas conocidos
221
La hoja de propiedades del Administrador de dispositivos de Windows tarda más de lo esperado en abrirse
La hoja de propiedades del Administrador de dispositivos de Windows puede tardar 60 segundos o más en abrirse. El
controlador debe descubrir todos los dispositivos Intel de Ethernet e inicializarlos antes de que pueda abrir la hoja de
propiedades. Estos datos se almacenan en caché, por lo que las aperturas posteriores de la hoja de propiedades serán
generalmente más rápidas.
Problemas conocidos de Linux
HeaderDataSplit no es compatible con adaptadores basados en 82599.
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema (0=tradicional,
1=MSI, 2=MSI-X) depende de la distribución. Por lo general, el proceso de configuración incluye la adición de la línea de
alias en /etc/modules.conf o /etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema
o archivos de configuración. Varias distribuciones Linux habituales se suministran con las herramientas necesarias para
hacer estos cambios automáticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el
sistema, consulte la documentación de la distribución.
Activación de WoL en Linux mediante Ethtool y BootUtil
De forma predeterminada, WoL está desactivado. En un entorno de Linux, WoL se debe activar mediante Ethtool y, en
ocasiones, también es necesario BootUtil. Solo el puerto A (puerto 0) se puede activar mediante Ethtool sin utilizar BootUtil.
Para activar WoL mediante Ethtool en otros puertos, debe activarlo primero mediante BootUtil.
Los ledes de enlace pueden estar apagados durante la instalación sin conexión del sistema operativo Linux
Al realizar una instalación sin conexión (instalación sin un NIC conectado a una red válida) de SUSE Linux Enterprise
Server 15, el enlace PHY se desactiva en el sistema operativo aunque el cable Ethernet esté conectado. El enlace PHY se
desactiva debido a que el controlador Intel desactiva el enlace para ahorrar energía cuando la red no está en uso. La
configuración de la red durante o desps de la instalación restablece los ledes de enlace.
Problemas conocidos de la Administración de energía
Los dispositivos con controladora de Ethernet Inte serie X710 no son compatibles con Wake-On-LAN en
el modo de multidifusión
Los dispositivos basados en la controladora de Ethernet Intel® X710 no son compatibles con Wake-On-Lan (WoL) en el
modo de multidifusión.
El sistema no se reactiva aunque Wake on Link esté activado
Puede que el sistema no se reactive según lo esperado si cambia la configuración de Wake on Link a Forzado y desactiva
las opciones "Activar en Magic Packet" y "Reactivar en coincidencia de patrones" en las instalaciones solo de controlador.
Para que la activación Wake on Link se realice correctamente, compruebe que la opción "Permitir que este dispositivo
active el equipo" esté marcada en la ficha Administración de energía. Puede que también necesite activar "Activar en Magic
Packet" o "Reactivación por coincidencia de patrones".
Problemas conocidos
222
Los paquetes dirigidos no reactivan el sistema
En algunos sistemas, es posible los adaptadores de servidor de cuatro puertos no se reactiven cuando están configurados
para activarse en paquetes dirigidos. Si experimenta problemas relacionados con la activación en paquetes dirigidos,
configure el adaptador para utilizar Magic Packets*.
Las opciones de Administración de energía no están disponibles o no aparecen
La configuración de la ficha Administración de energía en la hoja de propiedades del adaptador poda no estar disponible
o, directamente, no aparecer. Esto ocurre si solo instaló los controladores básicos, más adelante instaló Intel® PROSet para
el administrador de dispositivos de Windows y, a continuación, desinstaló Intel PROSet. Debe volver a instalar Intel PROSet
para resolver el problema.
El sistema se reactiva desde una red VLAN eliminada
Si el sistema entra en modo de espera y se envía un paquete dirigido a la dirección IP de la red VLAN eliminada, el sistema
se reactiva. Esto se produce porque un paquete dirigido omite el filtrado VLAN.
Los adaptadores Intel ignoran las señales de reactivación consecutivas durante la transición al modo de
espera
En ocasiones, al poner el sistema en el modo de espera, es posible que llegue un paquete de reactivación antes de que el
sistema complete su transición a este modo. Cuando esto sucede, el sistema ignora las señales de reactivación
consecutivas y permanece en modo de espera hasta que se enciende manualmente usando el ratón, el teclado o el botón
de encendido.
Otros problemas conocidos del adaptador de red Intel 10GbE
El inventario H/W del sistema (iDRAC) indica que la función de negociación automática
del NIC incorporado está deshabilitada, pero en algún otro lugar la velocidad de enlace y
la negociación automática dúplex están habilitadas
Si hay conectado un módulo óptico al Ethernet Intel® 10G X520 LOM en un PowerEdge-C6320, el inventario H/W del
sistema (iDRAC) indicará que la negociación automática está deshabilitada. Sin embargo, el Administrador de dispositivos
de Windows y HII indican que la velocidad de enlace y la negociación automáticaplex están habilitadas. Esto es debido
a que el controlador contiene un algoritmo que permite que el LOM se enlace con interlocutores SFP a 10 Gb/s o 1 Gb/s.
Esto se comunica al Administrador de dispositivos de Windows y HII, pero no es una auténtica negociación automática.
iDRAC lee el firmware del dispositivo, que no conoce el algoritmo y, por lo tanto, informa de que la negociación automática
está deshabilitada.
La asignación de banda ancha ETS no coincide con la configuración
Cuando las tramas Jumbo se establecen en 9K con un adaptador 10GbE, la división del tráfico ETS de 90 %/10 % en
realidad no se alcanza en un puerto en particular, a pesar de la configuración que se realiza en el conmutador DCB.
Cuando ETS se establece en una división 90 %/10 %, es s probable una división real observada del 70 %/30 %.
Pérdida de enlace en dispositivos 10GbE con tramas Jumbo habilitadas
No debe rebajar los valores de Receive_Buffers o Transmit_Buffers por debajo de 256 si las tramas Jumbo están
habilitadas en un dispositivo Intel® 10GbE. Si lo hace, causa la pérdida del enlace.
Problemas conocidos
223
Tramas de pausa de PFC continuas enviadas desde dispositivos basados en Ethernet
Intel® X520
Si tiene un dispositivo basado en Ethernet Intel® X520 conectado a un puerto del conmutador y modifica la configuración
de ancho de banda de DCB en el puerto del conmutador, el dispositivo Ethernet Intel® X520 puede enviar tramas de pausa
perpetuamente, por lo que causa una tormenta y falla al transferir datos hacia y desde los destinos de almacenamiento que
estaba utilizando. Para resolver este problema, deshabilite los puertos X520, vuelva a habilitarlos y, a continuación, vuelva
a conectarse a los volúmenes de destino iSCSI. Para evitar el problema, si es necesario cambiar la configuración de ancho
de banda de DCB, realice una de las siguientes acciones:
l Apague el servidor que contiene el dispositivo Ethernet Intel® X520 antes de modificar la configuración de ancho de
banda de DCB.
l Deshabilite los puertos del conmutador conectado al dispositivo basado en Intel X520.
l No tenga tfico ejecutándose en el dispositivo basado en Intel X520.
Ethernet Intel® 10G 2P/4P X710-k bNDC no tiene un enlace y no aparece en el Admi-
nistrador de dispositivos de Windows
Si instala Ethernet Intel® 10G 2P X710-k bNDC o Ethernet Intel® 10G 4P X710-k bNDC en un servidor de hoja Dell EMC
PowerEdge M630/M830 e instala esa hoja en un chasis M1000e, es posible que el bNDC no tenga enlace y muestre una
marca amarilla, o que no se muestre en absoluto, en el Administrador de dispositivos de Windows. Esto se limita a la
versión 1.0 de M1000e Midplane.
Ethernet Intel® 10G X520 LOM se enlaza a 10 Gb/s si se selecciona 1,0 Gb/s con dúplex
completo
Cuando se conecta con un cable de conexión directa, Ethernet Intel® 10G X520 LOM se conecta siempre a 10 Gb/s.
Intel X540-t y Dell Force10 no establecerá el enlace a 100 Mbps en dúplex completo si se
establece manualmente en ambos extremos
En el caso de un adaptador basado en X540-t unido a un componente Force10, para ejecutarse a 100 Mbps, las
propiedades de negociación automática de AMBOS componentes deben estar definidas como activas.
Al intentar identificar el adaptador, el LED de actividad parpadea y el LED de enlace es
fijo
Si utiliza la función de identificación de adaptador con los siguientes adaptadores, el LED de actividad parpadea en lugar
del LED de enlace. El LED de enlace puede mostrar una luz verde fija para puertos 10G, incluso si no está presente un
enlace de red.
l Todos los dispositivos Ethernet Intel® X520 10GbE
l Todos los dispositivos Ethernet Intel® X540 10GbE
l Todos los dispositivos Ethernet Intel® X550 10GbE
l Algunos dispositivos Intel® Gigabit I350 LOM
Problemas conocidos de los dispositivos con controladoras de
Ethernet Intel
®
serie 700
Algunos dispositivos basados en Intel® X710 aportan una identificación de dispositivo secundario 0x0000 y pueden
mostrar una cadena de marca gerica. El puerto 0 aporta la identificación del sub-fabricante indicado y muestra la cadena
de marca correcta.
Los dispositivos basados en Intel X710 pueden mantener un enlace en cualquier puerto o en todos, siempre que se
garantice la alimentación del dispositivo, independientemente del estado de energía del dispositivo o sistema.
Problemas conocidos
224
Errores IntelDCB inesperados en el registro de eventos de la aplicación de Windows
Es posible que, una vez que haya actualizado sus controladores X710, aparezcan varios errores IntelDCB en el registro de
eventos de la aplicación de Windows. Estos errores no son reales, por lo que puede ignorarlos.
Rendimiento inferior al esperado en dispositivos basados en X710/XL710
Si tiene un dispositivo basado en X710 o XL710 instalado en un sistema de cuatro zócalos de CPU. La recepción y la
transmisión de tfico pueden ser mucho más lentas de lo esperado. Establecer la tasa de interrupción en Alta puede
mitigar el problema.
Pruebas de cables no disponibles con el transceptor Broadcom BCM84886
Las pruebas de diagnóstico del cable pueden no estar disponibles si tiene un transceptor Broadcom BCM84886 instalado
en un puerto. El transceptor no admite el diagstico TDR. Consulte la hoja de datos del BCM84886 (84886-DS103;
revisión del 27 de octubre de 2017). Este problema afecta a los siguientes dispositivos:
l Adaptador de red convergente Ethernet Intel® X710-T
l Ethernet Intel® 25G 2P XXV710 Mezz
l Adaptador de red Ethernet Intel® 10G 2P X710-T2L-t
l Adaptador de red Ethernet Intel® 10G 4P X710-T4L-t
l Ethernet Intel® 10G 2P X710-T2L-t OCP
l Ethernet Intel® 10G 4P X710-T4L-t OCP
Wake on LAN está disponible erróneamente en iDRAC/racadm
El adaptador de red convergente Ethernet Intel® X710-2 solo es compatible con WoL en el puerto 1. Si NPAR está activado,
WoL solo se admite en la primera partición del puerto 1. Si ve el estado de WoL con iDRAC/racadm, puede que WoL
aparezca erróneamente como disponible en otros puertos y particiones.
Problemas conocidos del adaptador Intel® Gigabit 4P I350-t
Reducción de la velocidad
Al conectarse a un conmutador Gigabit mediante un cable CAT 5 defectuoso con un par roto, el adaptador no reduce la
velocidad de 1 GB a 100 Mbps. Para que el adaptador reduzca la velocidad, debe identificar dos pares rotos en el cable.
El sistema no arranca
Es posible que los recursos de E/S del sistema se agoten y el sistema no arranque si instala más de cuatro adaptadores de
servidor de cuatro puertos. Mover los adaptadores a otras ranuras o volver a equilibrar los recursos en el BIOS del sistema
puede resolver el problema. Este problema afecta a los siguientes adaptadores:
l Adaptador Intel® Gigabit 4P I350-t
225
Declaraciones de conformidad normativa
Productos FCC de clase A
Productos Ethernet 40 Gigabit
l Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
l Adaptador de red convergente Ethernet Intel® XL710-Q2
Productos Ethernet 25 Gigabit
l Ethernet Intel® 25G 2P E810-XXV OCP
l Ethernet Intel® 25G 2P XXV710 Mezz
l Adaptador de red Ethernet Intel® 25G 2P XXV710
Productos Ethernet 10 Gigabit
l Ethernet Intel® X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador de red Ethernet Intel® 10G 2P X540-t
l Adaptador de red Ethernet Intel® 10G 2P X550-t
l Ethernet Intel® 10G 4P X550 rNDC
l Ethernet Intel® 10G 4P X550/I350 rNDC
l Ethernet Intel® 10G 4P X540/I350 rNDC
l Ethernet Intel® 10G 4P X520/I350 rNDC
l Ethernet Intel® 10G 2P X520-k bNDC
l Ethernet Intel® 10G 4P X710-k bNDC
l Ethernet Intel® 10G 2P X710-k bNDC
l Ethernet Intel® 10G X710-k bNDC
l Adaptador de red convergente Ethernet Intel® X710
l Adaptador de red convergente Ethernet Intel® X710-T
l Ethernet Intel® 10G 4P X710/l350 rNDC
l Ethernet Intel® 10G 4P X710 SFP+ rNDC
l Ethernet Intel® 10G X710 rNDC
l Adaptador de Ethernet Intel® X710-DA2 para servidores para OCP
l Ethernet Intel® 10G 2P X710 OCP
l Ethernet Intel® 10G 4P X710 OCP
l Ethernet Intel® 10G 2P X710-T2L-t OCP
l Ethernet Intel® 10G 4P X710-T4L-t OCP
Productos Ethernet Gigabit
l Ethernet Intel® 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
Declaraciones de conformidad normativa
226
Productos FCC de clase B
Productos Ethernet 25 Gigabit
l Adaptador de red Ethernet Intel® 25G 2P E810-XXV
Productos Ethernet 10 Gigabit
l Adaptador de red Ethernet Intel® 10G 2P X710-T2L-t
l Adaptador de red Ethernet Intel® 10G 4P X710-T4L-t
l Adaptador de red Ethernet Intel® 10G 2P X520
l Ethernet Intel® 10G X520 LOM
Productos Ethernet Gigabit
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
Cumplimiento de seguridad
Los siguientes estándares de seguridad se aplican a todos los productos indicados anteriormente:
l UL 60950-1, segunda edición, 2011-12-19 (Equipos de tecnología de la información - Seguridad - Parte 1:
Requisitos generales)
l UL 62368-1, segunda edición (Equipos de tecnología de la información - Requisitos de seguridad)
l CSA C22.2 No. 60950-1-07, segunda edición, 2011-12 (Equipos de tecnología de la información - Seguridad - Parte
1: Requisitos generales)
l CAN/CSA C22.2 Diferencias de grupos europeos y Diferencias nacionales según 62368-1-14 - Equipos de
audio/vídeo, información y tecnologías de la comunicación - Parte 1: requisitos de seguridad
l EN 60950-1:2006/A11:2009/A1:2010/A12:2011 (Unión Europea)
l IEC 60950-1:2005 (segunda edición); Am 1:2009 (Internacional)
l Directiva LVD de la UE 2006/95/CE
Cumplimiento con EMC
Podrían aplicarse los siguientes estándares.
Productos de clase A
l FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l CAN ICES-3(A)/NMB-3(A) - Emisiones de radiación y conducción (Canadá)
l CISPR 22 - Emisiones de radiación y conducción (Internacional)
l EN55022: 2010 - Emisiones de radiación y conducción (Unión Europea)
l EN55024: 2010 +A1:2001+A2:2003 – Inmunidad (Unn Europea)
l EN55032: 2015 (Clase A) Requisitos de emisiones de radiación y conducción (Unión Europea)
l Directiva CEM 2004/108/CE (Unn Europea)
l VCCI (Clase A) - Emisiones de radiación y conducción (Japón)
l CNS13438 - Emisiones de radiación y conducción (Taiwán)
l AS/NZS CISPR 22:2009 + A1:2010 (Clase A) y CISPR 32:2015 para requisitos de emisiones de radiación y
conducción (Australia/Nueva Zelanda)
l NRRA Núm. 2012-13 (2012.06.28), NRRA Núm. Aviso 2012-14 (2012.06.28) (Corea)
Declaraciones de conformidad normativa
227
Productos de clase B
l FCC Sección 15 (Clase B) - Emisiones de radiación y conducción (EE. UU.)
l CAN ICES-3(B)/NMB-3(B) - Emisiones de radiación y conducción (Canadá)
l CISPR 22 - Emisiones de radiación y conducción (Internacional)
l EN55022: 2010 - Emisiones de radiación y conducción (Unión Europea)
l EN55024: 2010 - Inmunidad (Unión Europea)
l EN55032: 2015 (Clase B) Requisitos de emisiones de radiación y conducción (Unión Europea)
l Directiva CEM 2004/108/CE (Unn Europea)
l VCCI (Clase B) - Emisiones de radiación y conducción (Japón) (excepto dispositivos ópticos)
l CNS13438 (Clase B) 2006 - Emisiones de radiación y conducción (Taiwán) (excepto dispositivos ópticos)
l AS/NZS CISPR 22:2009 + A1:2010 (Clase B) y CISPR 32:2015 para requisitos de emisiones de radiación y
conducción (Australia/Nueva Zelanda)
l KN22; KN24 - Emisiones e inmunidad de Corea
l NRRA Núm. 2012-13 (2012.06.28), NRRA Núm. Aviso 2012-14 (2012.06.28) (Corea)
Cumplimiento con las normativas sobre sustancias peligrosas
Podrían aplicarse los siguientes estándares:
l Directiva REACH de la UE
l Directiva WEEE de la UE
l Directiva RoHS de la UE
l Directiva RoHS de China
l BSMI CNS15663: directiva RoHS de Tain
Marcas de cumplimiento normativo
En los casos en los que sea necesario, estos productos se suministrarán con las siguientes marcas de certificación:
l Marca de reconocimiento de UL para EE. UU. y Canadá
l Marca CE
l Logotipo de RAEE de la UE
l Marcas de FCC
l Marcas de VCCI
l Marca C-Tick de Australia
l Marca MSIP de Corea
l Marca BSMI de Taiwán
l Marca "EFUP" de la Reblica Popular China
Información de usuario sobre FCC clase A
Los productos de clase A indicados anteriormente cumplen la sección 15 del Reglamento de la FCC. El funcionamiento
está sujeto a las dos condiciones siguientes:
1. Este dispositivo no puede causar interferencias perjudiciales.
2. Este dispositivo debe aceptar las interferencias que se reciban, incluidas las interferencias que puedan causar un
funcionamiento no deseado.
NOTA: este equipo se ha probado y se ha verificado que cumple los límites para dispositivos digitales de clase A,
tal como se define en la sección 15 de las Normas FCC. Estos límites están concebidos para proporcionar una
protección razonable contra interferencias perjudiciales cuando el equipo funcione en un entorno comercial. Este
equipo genera, utiliza y puede emitir energía de radiofrecuencia y, si no se instala y se utiliza de acuerdo con las
instrucciones, puede producir interferencias perjudiciales para las comunicaciones de radio. Es probable que el
funcionamiento de este equipo en un área residencial cause interferencias perjudiciales, en cuyo caso el usuario
estará obligado a corregir la interferencia a su propio cargo.
Declaraciones de conformidad normativa
228
ADVERTENCIA: si el dispositivo se cambia o se modifica sin el permiso de Intel, qui se anule la autoridad del
usuario para operar el equipo.
Normas de Cana (Ministerio de Industria de Canadá)
CAN ICES-3(A)/NMB-3(A)
Declaración VCCI de clase A
Declaración BSMI de clase A
Aviso KCC de clase A (solo para la Reblica de Corea)
Declaraciones de conformidad normativa
229
Aviso BSMI de clase A (Taiwán)
Información de usuario sobre FCC clase B
Este equipo se ha probado y se ha verificado que cumple los límites para dispositivos digitales de clase B, tal como se
define en la sección 15 de las Normas FCC. Estos límites han sido diseñados para proteger razonablemente de
interferencias perjudiciales en instalaciones residenciales. Este equipo genera, utiliza y puede emitir energía de
radiofrecuencia y, si no se instala y se utiliza de acuerdo con las instrucciones, puede producir interferencias perjudiciales
para las comunicaciones de radio. No obstante, no hay garana de que no se produzcan interferencias en instalaciones
determinadas.
Si este equipo llegase a ocasionar interferencias perjudiciales en la recepción de radio o televisión, lo cual se puede
determinar al apagar y encender el equipo, se insta al usuario a que intente corregir las interferencias a tras de una o
más de las medidas siguientes:
l Cambiar la orientación o la ubicación de la antena receptora.
l Aumentar la distancia entre el equipo y el receptor.
l Conectar el equipo a una toma de corriente distinta de la que utiliza el receptor.
l Consultar el problema al vendedor o un técnico de radio/TV con experiencia.
ADVERTENCIA: si el dispositivo se cambia o se modifica sin el permiso de Intel, qui se anule la autoridad del
usuario para operar el equipo.
NOTA: este dispositivo cumple la Parte 15 del Reglamento de la FCC. Su funcionamiento está sujeto a las dos
condiciones siguientes: (1) este dispositivo no debe causar interferencias perjudiciales, y (2) este dispositivo debe
aceptar cualquier interferencia recibida, incluidas aquellas que puedan provocar un funcionamiento no deseado.
Avisos de compatibilidad electromagtica
Declaración de conformidad con la normativa de la FCC
Los siguientes productos se han comprobado y cumplen los estándares de la FCC para uso doméstico o en oficinas:
PRO/1000 PT, PRO/1000 GT, Gigabit PT, Gigabit ET, I210-T1, I340-T2/T4 e I350-T2/T4.
Normas de Canadá (Ministerio de Industria de Canadá)
CAN ICES-3 (B)/NMB-3 (B)
Declaraciones de conformidad normativa
230
Declaración normativa VCCI de clase B (Japón)
Aviso KCC de clase B (solo para la Reblica de Corea)
Logotipo de RAEE de la UE
Declaración del fabricante (Comunidad Europea)
Declaración del fabricante
Intel Corporation declara que el equipo descrito en este documento cumple con los requisitos de las directivas del Consejo
Europeo que se indican a continuación:
l Directiva de bajo consumo 2006/95/CE
l Directiva de EMC 2004/108/CE
l Directiva de RoHS 2011/65/UE
Declaraciones de conformidad normativa
231
Estos productos siguen las disposiciones de la Directiva Europea 1999/5/CE.
Dette produkt er i overensstemmelse med det europæiske direktiv 1999/5/EC.
Dit product is in navolging van de bepalingen van Europees Directief 1999/5/EC.
Tämä tuote noudattaa EU-direktiivin 1999/5/EC määräyksiä.
Ce produit est conforme aux exigences de la Directive Européenne 1999/5/EC.
Dieses Produkt entspricht den Bestimmungen der Europäischen Richtlinie 1999/5/EC.
Þessi vara stenst reglugerð Evrópska Efnahags Bandalagsins númer 1999/5/EC.
Questo prodotto è conforme alla Direttiva Europea 1999/5/EC.
Dette produktet er i henhold til bestemmelsene i det europeiske direktivet 1999/5/EC.
Este produto cumpre com as normas da Diretiva Européia 1999/5/EC.
Este producto cumple con las normas de la Directiva Europea 1999/5/CE.
Denna produkt har tillverkats i enlighet med EG-direktiv 1999/5/EC.
Esta declaración se basa en el cumplimiento de las siguientes normativas en los productos de clase A indicados
anteriormente:
EN 55022:2010 (CISPR 22 Clase A) Control de emisiones de RF.
EN 55024:2010 (CISPR 24) Inmunidad a las perturbaciones electromagticas.
EN 60950-1:2006/A11:2009A1:2010/A12:2011 Seguridad de los equipos de tecnología de la información - Parte 1:
Requisitos generales.
EN 50581:2012 - Información técnica para la evaluación de productos eléctricos y electrónicos respecto a la restricción de
sustancias peligrosas.
Esta declaración se basa en el cumplimiento de las siguientes normativas en los productos de clase B indicados
anteriormente:
EN 55022:2010 (CISPR 22 Clase B) Control de emisiones de RF.
EN 55024:2010 (CISPR 24) Inmunidad a las perturbaciones electromagticas.
EN 60950-1:2006/A11:2009/A1:2010/A12:2011 Seguridad de los equipos de tecnología de la información - Parte 1:
Requisitos generales.
EN 50581:2012 - Información técnica para la evaluación de productos eléctricos y electrónicos respecto a la restricción de
sustancias peligrosas.
ADVERTENCIA: en un entorno dostico, los productos de clase A pueden causar interferencias de frecuencias
de radio, en cuyo caso el usuario estará obligado a tomar las medidas oportunas.
Persona responsable
Intel Corporation, Mailstop JF3-446
5200 N.E. Elam Young Parkway
Hillsboro, OR 97124-6497 (EE. UU.)
Teléfono: 1-800-628-8686
Declaraciones de conformidad normativa
232
Declaración RoHS de China
Productos láser de clase 1
Los adaptadores de servidor indicados más arriba pueden incluir dispositivos láser para aplicaciones de comunicación.
Estos dispositivos cumplen con los requisitos de clase 1 de productos láser y son seguros para el uso para el que se han
diseñado. En funcionamiento normal, el resultado de estos dispositivos láser no sobrepasa el límite de exposición de los
ojos y no puede provocar ninn daño.
Para conseguir un funcionamiento seguro en caso de circunstancias anormales, asegúrese de tener la cubierta del
conector láser que se suministra en el lugar adecuado o de tener un cable de fibra óptico compatible conectado cuando el
dispositivo esté conectado al suministro de energía.
El dispositivoser solo debe ser reparado por el fabricante responsable. De no ser así, no debe efectuarse ninn ajuste,
reparación o mantenimiento.
PRECAUCIÓN: el uso de controles o ajustes o la realización de procedimientos ajenos a los que se especifican
en esta documentación podrían resultar en exposiciones peligrosas a radiación.
Estos dispositivos láser de la clase 1:
Cumplen con FDA/CDRH por CFR21, subcapítulo J.
Cumple con IEC 60825-1:2007.
Fin de vida útil y reciclado de productos
Los sistemas y requisitos de retiro por final de vida útil del producto y los de reciclado varían de un país a otro.
Solicite a un distribuidor de este producto información sobre estos temas.
233
Asistencia al cliente
Sitios web e Internet
http://support.dell.com/
Técnicos de asistencia al cliente
Si los procedimientos de resolución de problemas de este documento no solucionan el problema, póngase en contacto con
Dell Inc. para solicitar asistencia técnica (consulte la sección "Obtención de ayuda" en la documentación del sistema).
Antes de llamar...
Debe estar delante de su equipo, con el software en ejecución y la documentación del producto a la mano.
Es posible que el técnico le pregunte lo siguiente:
l Su dirección y número de tefono
l El nombre y elmero de modelo del producto sobre el que está llamando
l El número de serie y la etiqueta de servicio del producto
l Los nombres y los números de versión del software que está usando para trabajar con el producto
l El nombre y número de versión del sistema operativo que está utilizando
l El tipo de sistema (fabricante y número de modelo)
l Las tarjetas de expansión o adicionales del sistema
l La cantidad de memoria de su sistema
234
Especificaciones del adaptador
Especificaciones de los adaptadores de red Intel® de 40 Gigabits
Característica Adaptador de red convergente Ethernet Intel® XL710-Q2
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
QSFP+
Cables
Cable biaxial de conexión directa (DAC) 40GBase-SR4 (7 m máx.)
Requisitos de alimentacn
6,5 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
5,21 x 2,71 pulgadas
13,3 x 6,9 cm
Temperatura de funcionamiento
32 - 131 °F
(0 - 55 °C)
MTBF a 55 °C
159 años
Velocidades disponibles
40 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
IEEE 802.3ba
SFF-8436
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones del adaptador
235
Especificaciones de tarjetas dependientes de red (NDC) Intel®
40GbE
Característica Ethernet Intel® 40G 2P XL710 QSFP+ rNDC
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
QSFP+
Cables
Cable biaxial de conexión directa (DAC) 40GBase-SR4 (7 m máx.)
Requisitos de alimentacn
6,2 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
3,66 x 6,081 pulg.
9.3 x 15.5 cm
Temperatura de funcionamiento
32 - 140 °F
(0 - 60 °C)
MTBF a 55 °C
112 años
Velocidades disponibles
40 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
IEEE 802.3ba
SFF-8436
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de los adaptadores de red Intel® 25 Gigabit
Característica Adaptador de red Ethernet Intel® 25G 2P E810-XXV
Conector de bus
PCI Express 4.0
PCI Express 3.0
Especificaciones del adaptador
236
Velocidad de bus
x8
Modo de transmisn/Conector
SFP28
Cables
Cable biaxial de conexión directa (DAC) 25GBase-CR (3 m x.)
Requisitos de alimentacn
25 W ximo a +12 V
3,63 W máximo a +3,3 V
Dimensiones
(sin incluir el soporte)
2,54 pulgadas x 6,6 pulgadas
6,44 cm x 16,76 cm
Temperatura de funcionamiento
32 - 140 °F (0 - 60 °C)
MTBF a 55 °C
271 años
Velocidades disponibles
25 Gbps/10 Gbps/1 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
PCI Express 4.0
SFF-8419
IEEE 802.3
Normativas y seguridad
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 2010 - (Inmunidad) (Unión Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS CISPR - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
KN22 - Emisiones de radiación y conducción (Corea)
l
RoHS (China)
Característica Adaptador de red Ethernet Intel® 25G 2P XXV710
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
SFP28
Cables
Cable biaxial de conexión directa (DAC) 25GBase-CR (3 m x.)
Requisitos de alimentacn
6,5 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
2,70 x 2,02 pulgadas
6,86 x 5,12 cm
Temperatura de funcionamiento
32 - 131 °F
(0 - 55 °C)
MTBF a 55 °C
239 años
Velocidades disponibles
25 Gbps/10 Gbps/1 Gbps
Especificaciones del adaptador
237
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
IEEE 802.3-2015
SFF-8431
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL/CSA 60950-1-07 Segunda edición
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 2010 - (Inmunidad) (Unión Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS CISPR - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
KN32 - Emisiones de radiación y conducción (Corea)
l
KN35 - (Inmunidad) (Corea)
l
RoHS
Especificaciones de la tarjeta Intel® 25 Gigabit Mezzanine
Característica Ethernet Intel® 25G 2P E810-XXV OCP
Conector de bus
PCI Express 4.0
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
SFP28
Cables
Cable biaxial de conexión directa (DAC) 25GBase-CR (3 m x.)
Requisitos de alimentacn
25 W ximo a +12 V
3,63 W máximo a +3,3 V
Dimensiones
(sin incluir el soporte)
4,53 pulgadas x 2,99 pulgadas
11,5 cm x 7,6 cm
Temperatura de funcionamiento
41 - 149 °F (5 - 65 °C)
MTBF a 55 °C
266 años
Velocidades disponibles
25 Gbps/10 Gbps/1 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
PCI Express 4.0
SFF-8431
IEEE 802.3
Especificaciones del adaptador
238
OCP NIC 3.0
Normativas y seguridad
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 2010 - (Inmunidad) (Unión Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS CISPR - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
KN22 - Emisiones de radiación y conducción (Corea)
l
RoHS (China)
Característica Ethernet Intel® 25G 2P XXV710 Mezz
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
SFP28
Cables
Cable biaxial de conexión directa (DAC) 25GBase-CR (3 m x.)
Requisitos de alimentacn
9,78 W a +12 V
Dimensiones
(sin incluir el soporte)
3,78 x 3,15
9,60 x 8,001
Temperatura de funcionamiento
105 °F x. (40 °C x.)
MTBF a 55 °C
353 años
Velocidades disponibles
25 Gbps
Modos dúplex
Solo plex
Luces indicadoras
(no disponible)
Enlace y actividad
Conformidad con estándares
Estándares de plano posterior IEEE 802.3
Normativas y seguridad
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 2010 - (Inmunidad) (Unión Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS CISPR - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
KN22 - Emisiones de radiación y conducción (Corea)
l
RoHS (China)
Especificaciones del adaptador
239
Especificaciones de los adaptadores de red Intel® de 10 Gigabits
Característica
Ethernet Intel® 10G 2P
X710 OCP
Ethernet Intel® 10G 2P X710-
T2L-t OCP
Ethernet Intel® 10G 4P X710-
T4L-t OCP
Conector de bus
PCI Express 3.0 OCP NIC 3.0 OCP NIC 3.0
Velocidad de bus
x8 PCI Express v3.0 x8 PCI Express v3.0 x8
Modo de
transmisión/Conector
10G/SFP+ Conector RJ45 BASE-T Conector RJ45 BASE-T
Cables
10GBASE-SR
10GBASE-LR
Cables de conexión directa
SFP+
10GBASE-T: CAT6A (100 m x.),
CAT6 (55 m máx.)
1000BASE-T: CAT6A, CAT6, CAT5e
(100 m máx.)
10GBASE-T: CAT6A (100 m x.),
CAT6 (55 m máx.)
1000BASE-T: CAT6A, CAT6, CAT5e
(100 m máx.)
Requisitos de
alimentacn
6 W máx., óptica no incluida 9,0 W máximo a +12 V 16,3 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
Factor de forma reducido
OCP3.0 estándar
2,99 x 4,53 pulgadas
(7,6 x 11,5 cm)
Factor de forma reducido OCP3.0
estándar
2,99 x 4,53 pulgadas
(7,6 x 11,5 cm)
Factor de forma reducido OCP3.0
estándar
2,99 x 4,53 pulgadas
(7,6 x 11,5 cm)
Temperatura de
funcionamiento
23 - 149 °F
(-5 - 65 °C)
32 - 131 °F
(0 - 55 °C)
32 - 131 °F
(0 - 55 °C)
MTBF a 55 °C
376 376 223
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Luces indicadoras
Enlace
Actividad
Enlace
Actividad
Enlace
Actividad
Conformidad con
esndares
PCI Express 3.0
SFF-8431
IEEE 802.3ae
OCP NIC 3.0
IEEE 802.3
PCI Express 3.0
IEEE 802.3
PCI Express 3.0
Normativas y
seguridad
Cumplimiento de seguridad
l
UL/CSA 62368-1: 2014, segunda edición
l
EN 62368 (Unn Europea)
l
IEC 62368 (internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 32 - Emisiones de radiación y conducción (internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55035: 2017 (inmunidad) (Unn Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZ CISPR - Emisiones de radiación y conducción (Australia/Nueva Zelanda)
l
KN32 - Emisiones de radiación y conducción (Corea) KN35 - (inmunidad) (Corea)
Especificaciones del adaptador
240
Característica
Adaptador de red Ethernet Intel® 10G 2P
X710-T2L-t
Adaptador de red Ethernet Intel® 10G 4P
X710-T4L-t
Conector de bus
PCI Express 3.0 PCI Express 3.0
Velocidad de bus
x8 x8
Modo de
transmisión/Conector
Conector RJ45 BASE-T Conector RJ45 BASE-T
Cables
10GBASE-T: CAT6A (100 m x.), CAT6 (55 m x.)
1000BASE-T: CAT6A, CAT6, CAT5e (100 m x.)
10GBASE-T: CAT6A (100 m x.), CAT6 (55 m x.)
1000BASE-T: CAT6A, CAT6, CAT5e (100 m x.)
Requisitos de
alimentacn
9,6 W máximo a +12 V 14,2 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
2,70 x 6,74 pulgadas
(6,86 x 17,12 cm)
2,70 x 6,63 pulgadas
(6,86 x 16,84 cm)
Temperatura de
funcionamiento
32 - 131 °F
(0 - 55 °C)
32 - 131 °F
(0 - 55 °C)
MTBF a 55 °C
356 237
Velocidades disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex
Luces indicadoras
Enlace
Actividad
Enlace
Actividad
Conformidad con
esndares
IEEE 802.3
PCI Express 3.0
IEEE 802.3
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL/CSA 62368-1: 2014, segunda edición
l
EN 62368 (Unn Europea)
l
IEC 62368 (internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 32 - Emisiones de radiación y conducción (internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55035: 2017 (inmunidad) (Unn Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZ CISPR - Emisiones de radiación y conducción (Australia/Nueva Zelanda)
l
KN32 - Emisiones de radiación y conducción (Corea) KN35 - (inmunidad) (Corea)
Especificaciones del adaptador
241
Característica
Adaptador de red
convergente Ethernet Intel®
X710-T
Adaptador de red
convergente Ethernet Intel®
X710
Adaptador Ethernet X710-DA2
para OCP para servidores
Conector de bus
PCI Express 3.0 PCI Express 3.0 PCI Express 3.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
10GBase-T/RJ-45 SFP+ SFP+
Cables
10GBase-T (Categoría 6A) Twinax
10GBase-SR/LR
Conexión directa
10GBASE-SR
Requisitos de
alimentacn
8,53 W (inactivo) a 12 V, principal 6,7 vatios (máximo) a 12 V 3,08 W (máx.) a 5 V, principal
Dimensiones
(sin incluir el soporte)
6,578 x 4,372 pulgadas
16,708 cm x 11,107 cm
6,578 x 4,372 pulgadas
16,708 cm x 11,107 cm
2,67 x 4,59 pulgadas
6,78 x 11,658 cm
Temperatura de
funcionamiento
32 - 131 °F
(0 - 55 °C)
41 - 131 °F
(5 - 55 °C)
32 - 131 °F
(0 - 55 °C)
MTBF
493 años 491 años 1276 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Luces indicadoras
Enlace / actividad
1Gig/10Gig
Enlace / actividad
1Gig/10Gig
Enlace / actividad
1Gig/10Gig
Conformidad con
esndares
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica
Adaptador de red
Ethernet Intel® 10G 2P
X540-t
Adaptador de red Ethernet Intel®
10G 2P X520
Adaptador de red Ethernet
Intel® 10G 2P X550-t
Conector de bus
PCI Express 2.0 PCI Express 2.0 PCI Express 3.0
Especificaciones del adaptador
242
Característica
Adaptador de red
Ethernet Intel® 10G 2P
X540-t
Adaptador de red Ethernet Intel®
10G 2P X520
Adaptador de red Ethernet
Intel® 10G 2P X550-t
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
10GBase-T/RJ-45 Cobre Biaxial/SFP+
10GBase-SR/LR
10GBase-T/RJ-45
Cables
10GBase-T (Categoría 6A) 10 Gigabit Ethernet por cable de cobre
SFP+ de conexión directa (10GSFP+Cu)
10GBASE-SR/LR
10GBase-T (Categoría 6A)
Requisitos de
alimentacn
15 W ximo a +12 V 6,2 W máximo a +3,3 V 13W máximo a +12 V
Dimensiones
(sin incluir el soporte)
5,7 x 2,7 pulgadas
14,5 x 6,9 cm
5,7 x 2,7 pulgadas
14,5 x 6,9 cm
5,13 x 2,7 pulgadas
13,0 x 6,9 cm
Temperatura de
funcionamiento
32 - 131 °F
(0 - 55 °C)
32 - 131 °F
(0 - 55 °C)
32 - 131 °F
(0 - 55 °C)
MTBF a 55 °C
108 años 83,9 años 127 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Dos por puerto:
Enlace y actividad
Enlace
Actividad
Conformidad con
esndares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3an
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 3.0
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones del adaptador
243
Especificaciones de la tarjeta Intel® 10 Gigabit Mezzanine
Característica Ethernet Intel® X520 10GbE KX4-KR Mezz de doble puerto
Conector de bus
PCI Express 2.0
Velocidad de bus
x8
Requisitos de alimentacn
7,4 W (máximo) a 3,3 V
Dimensiones
3,65 x 3,3 pulgadas
Temperatura de funcionamiento
32 - 131 °F (0 - 55 °C)
MTBF a 55 °C
147 años
Velocidades disponibles
10 Gbps/1 Gbps
Modos dúplex
Solo plex
Conformidad con estándares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de tarjetas dependientes de red (NDC) Intel®
10GbE
Característica Ethernet Intel® 10G 4P X550/I350 rNDC Ethernet Intel® 10G 4P X550 rNDC
Conector de bus
PCI Express 3.0 PCI Express 3.0
Velocidad de bus
x8 x8
Modo de transmisn/Conector
Cobre trenzado/RJ-45 Cobre trenzado/RJ-45
Especificaciones del adaptador
244
Cables
Cat 6A (10 Gbps)/Cat 5e (1 Gbps) Cat 6A
Requisitos de alimentacn
15,39 W (máx.) a 12 V 33,6 vatios (máximo) a 12 V
Dimensiones
4,34 x 4,012 pulgadas
11,04 x 10,19 cm
4,37 x 5,86 pulgadas
11,10 x 14,883 cm
Temperatura de funcionamiento
60 °F (15 °C) 60 °F (15 °C)
MTBF a 55 °C
445 436
Velocidades disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex
Conformidad con estándares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 3.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica
Ethernet Intel® 10G 4P
X540/I350 rNDC
Ethernet Intel® 10G 4P
X520/I350 rNDC
Ethernet Intel® 10G 2P
X520-k bNDC
Conector de bus
PCI Express 2.0 PCI Express 2.0 PCI Express 2.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
Cobre trenzado/RJ-45 SFP+ Cobre/placa posterior
Cables
Cat 6A (10 Gbps)/Cat 5e (1 Gbps) SFP+ SR/DA 10GBase-KR y 1000Base-KX
Requisitos de
alimentacn
5,5 vatios (máximo) a 3,3 V 10,1 vatios (máximo) a 12 V 0,6 W a 3,3 V (AUX), 6,3 W a 1,2 V
(VCORE)
Dimensiones
3,93 x 3,67 pulgadas 4,3 x 3,7 pulgadas 3,0 x 2,5 pulgadas
Temperatura de
funcionamiento
32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C)
Especificaciones del adaptador
245
MTBF a 55 °C
68 años 65 años 147 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Conformidad con
esndares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ap
IEEE 802.3x
ACPI v1.0
PCI Express 2.0a
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica
Ethernet Intel® 10G 4P
X710-k bNDC
Ethernet Intel® 10G 4P
X710/l350 rNDC
Ethernet Intel® 10G 4P X710
SFP+ rNDC
Conector de bus
Dell EMC bNDC PCI Express 3.0 PCI Express 3.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
KX/KR SFP+ SFP+
Cables
Plano posterior Twinax
10GBase-SR/LR
Twinax
10GBase-SR/LR
Requisitos de
alimentacn
3,3 W a 3,3 V (AUX), 12,6 W a 12
V (AUX)
10,7 vatios (máximo) a +12 V 9,5 vatios (máximo) a +12 V
Dimensiones
3,000 x 2,449 pulgadas
7,62 x 6,220 cm
4,331 x 3,661 pulgadas
11,0 x 9,298 cm
4,331 x 3,661 pulgadas
11,0 x 9,298 cm
Temperatura de
funcionamiento
32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C)
MTBF a 55 °C
828 años 108 años 505 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps/1 Gbps
Especificaciones del adaptador
246
Modos dúplex
Solo plex Solo plex Solo Dúplex
Luces indicadoras
Ninguna Enlace / actividad
Velocidad
Enlace / actividad
Velocidad
Conformidad con
esndares
PCI Express 3.0
IEEE 802.3ap
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de los adaptadores de red Intel® Gigabit
Característica Ethernet Intel® 1G 4P I350-t OCP
Conector de bus
PCI Express 2.1
Velocidad de bus
x4
Modo de transmisn/Conector
1GBase-T/RJ-45
Cables
Cat 5e
Requisitos de alimentacn
25,2 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
Factor de forma reducido OCP3.0 estándar
2,99 x 4,53 pulgadas (7,6 x 11,5 cm)
Temperatura de funcionamiento
23 - 149 °F
(-5 a 65 °C)
MTBF a 55 °C
335 años
Velocidades disponibles
10/100/1000 Mbps
negociación automática
Modos dúplex
Dúplex o semidúplex a 10/100 Mbps; dúplex completo solo a 1000 Mbps
Conformidad con estándares
IEEE 802.3
IEEE 802.3ab
IEEE 802.3u
PCI Express 2.1
OCP NIC 3.0
Luces indicadoras
Dos por puerto:
Especificaciones del adaptador
247
Enlace y actividad
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica Adaptador Intel® Gigabit 2P I350-t y adaptador Intel® Gigabit 4P I350-t
Conector de bus
PCI Express 2.0
Velocidad de bus
x4
Modo de transmisn/Conector
Cobre trenzado/RJ-45
Cables
1000Base-T (Categoría 3 o 5)
Requisitos de alimentacn
Adaptador Intel® Gigabit 2P I350-t : 4.8 Watts @ 12 V
Adaptador Intel® Gigabit 4P I350-t: 6.0 Watts @ 12 V
Dimensiones
(sin incluir el soporte)
5,3 x 2,7 pulgadas
13,5 x 6,9 cm
Temperatura de funcionamiento
32 - 131 °F
(0 - 55 °C)
MTBF a 55 °C
68 años
Velocidades disponibles
10/100/1000
negociación automática
Modos dúplex
Dúplex o semidúplex a 10/100 Mbps; dúplex completo solo a 1000 Mbps
Conformidad con estándares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3az
IEEE 802.3u
IEEE 802.3x
IEEE 802.3z
ACPI v1.0
PCI Express 2.0
Luces indicadoras
Dos por puerto:
Actividad y velocidad
Especificaciones del adaptador
248
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de la tarjeta Intel® Gigabit Mezzanine
Característica Intel® Gigabit 4P I350-t Mezz
Conector de bus
PCI Express 2.0
Velocidad de bus
x4
Requisitos de alimentacn
3,425 vatios (máximo) a 3,3 V
Dimensiones
3,65 x 3,3 pulgadas
Temperatura de funcionamiento
32 - 131 °F (0 - 55 °C)
MTBF a 55 °C
108 años
Velocidades disponibles
Plena lo a 1000 Mbps
Modos dúplex
Completo a 1000 Mbps
Conformidad con estándares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
Especificaciones del adaptador
249
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de tarjetas dependientes de red (NDC) Intel®
Gigabit
Característica
Intel® Gigabit 4P
X710/I350 rNDC
Ethernet Intel® Gigabit 4P
X550/I350 rNDC
Intel® Gigabit 4P I350-t
rNDC
Conector de bus
PCI Express 2.0 PCI Express 2.0 PCI Express 2.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
Cobre trenzado/RJ-45 Cobre trenzado/RJ-45 Cobre trenzado/RJ-45
Cables
Cat-5e Cat-5e Cat-5e
Requisitos de
alimentacn
10,7 W máximo a +12 V 15,39 W (máx.) a +12 V 5,5 W (x.) a +3,3 V
Dimensiones
(sin incluir el soporte)
4,331 x 3,661 pulgadas
11,007 x 9,298 cm
5,86 x 4,35 pulgadas
14,882 x 11,04 cm
5,33 x 2,71 pulgadas
13,54 x 6,59 cm
Temperatura de
funcionamiento
32 - 131 °F
(0 - 55 °C)
32 - 60 °F
(0 - 16 °C)
32 - 60 °F
(0 - 16 °C)
MTBF a 55 °C
108 años 251 años 117 años
Velocidades disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 1 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Conformidad con
esndares
PCI Express 2.1
IEEE 802.3i
IEEE 802.3ab
IEEE 802.3u
IEEE 802.3ad
IEEE 802.3az
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.1
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.1
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unión Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unn Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
Especificaciones del adaptador
250
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
251
Estándares
l IEEE 802.1p: colas de prioridad (prioridad de tráfico) y niveles de Quality of Service (QOS)
l IEEE 802.1Q: identificación de LAN virtual
l IEEE 802.3ab: Gigabit Ethernet por hilo de cobre
l IEEE 802.3ac: Etiquetado
l IEEE 802.3ad: SLA - (FEC/GEC/Agregación de enlaces [modo estático])
l IEEE 802.3ad: modo dinámico
l IEEE 802.3ae: Ethernet de 10 Gb/s
l IEEE 802.3an: 10Gase-T 10 Gbps Ethernet por par trenzado sin blindaje
l IEEE 802.3ap: Ethernet de plano posterior
l IEEE 802.3u: Fast Ethernet
l IEEE 802.3x: control de flujo
l IEEE 802.3z: Gigabit Ethernet por fibra de vidrio
l ACPI: Advanced Configuration and Power Management (Administración avanzada de configuración y alimentación)
l PCI Express: especificación de bus de sistema: 32/64 bits, x1, x2, x4, x8, x16
Para obtener s información acerca de los estándares IEEE 802, la misma está disponible en http://www.ieee802.org.
VLAN IEEE 802.3ac:
Las VLAN requieren conmutadores preparados para VLAN, ya sea de forma implícita (solo el conmutador) o explícita (IEEE
802.3ac). Las VLAN IEEE 802.3ac permiten VLAN múltiples por adaptador, ya que tanto el conmutador como el adaptador
utilizan una etiqueta en el encabezado del paquete para clasificar las VLAN.
Los adaptadores de red Intel Gigabit y 10 Gigabit son totalmente compatibles con VLAN implícitas y explícitas.
Atributos X-UEFI
Esta sección contiene información sobre los atributos X-UEFI y sus valores esperados.
Lista de dispositivos con varios controladores
Los adaptadores que se muestran a continuación tienen s de un controlador. En estos adaptadores, el establecimiento de la configuración basada en el controlador no
afectará a todos los puertos. Solo los puertos enlazados al mismo controlador se verán afectados.
La siguiente configuración se aplicará a todos los puertos de un controlador determinado:
l Modo de virtualización
l Modo NParEP
l Funciones virtuales de PCI anunciadas
Dispositivos con varios controladores Cantidad de
controladores
en el dispositivo
Controlador 1 Controlador 2
Ethernet Intel® 10G 4P X520/I350 rNDC
Intel® Gigabit 4P X520/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Ethernet Intel® 10G 4P X540/I350 rNDC
Intel® Gigabit 4P X540/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Ethernet Intel® 10G 4P X550 rNDC 2 Puertos 1 y 2 10G Puertos 3 y 4 10G
Ethernet Intel® 10G 4P X550/I350 rNDC
Intel® Gigabit 4P X550/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Ethernet Intel® 10G 4P X710/I350 rNDC
Ethernet Intel® 10G X710 rNDC
Intel® Gigabit 4P X710/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Tabla de atributos X-UEFI
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
Modo de
virtualización
VirtualizationMode X X X X X X X X None/NPAR/SR-IOV/NPAR +
SR-IOV (Ninguno/NPAR/SR-
IOV/NPAR + SR-IOV)
None/NPAR/SR-IOV/NPAR +
SR-IOV (Ninguno/NPAR/SR-
IOV/NPAR + SR-IOV)
No Especifica la configuración de
l modo de virtualización de la
controladora. "NPAR" y
"NPAR + SR-IOV" solo se
admiten en dispositivos X710
y XXV710. No se admiten en
sistemas operativos de
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
cliente. La configuración del
atributo se aplica a todos los
puertos de un controlador
determinado.
Número de
funciones
virtuales
compatibles
NumberVFSupported X X X X X X X X No 0-256 No Número de funciones
virtuales compatibles en este
puerto.
Interpretación
de estado de
partición
PartitionStateInterpretation X X No Variable/Fixed (Variable/Fijo) No Describemo se
implementa la partición y
mo se utiliza el atributo
PartitionState en el
controlador. Fixed (Fijo) es el
único valor que se utiliza.
Compatibilidad
con RDMA
RDMASupport X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si el controlador admite
algún protocolo RDMA.
Unavailable (No disponible)
es el único valor que se
utiliza.
Agente LLDP INTEL_LLDPAgent X X X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
No Habilita o deshabilita el
agente LLDP del firmware.
Tenga en cuenta que
deshabilitar el agente LLDP
del firmware también
deshabilita la funcionalidad de
DCB. Deshabilitar el agente
LLDP permite que los
paquetes LLDP del
conmutador pasen sin
obstáculos al sistema
operativo. Algunos agentes
LLDP de la capa del sistema
operativo y agentes LLDP de
la capa de red definida por
software necesitan estos
paquetes para funcionar
correctamente. Tenga en
cuenta que esta opción no
está disponible en modo
NPAR.
Compatibilidad
con SR-IOV
SRIOVSupport X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad SR-IOV.
Base de
asignación de
VF
VFAllocBasis X X X X X X X X No Device/Port
(Puerto/Dispositivo)
No Define el dominio en el que se
asignan las funciones
virtuales (VF) Port (Puerto)
es el único valor que se
utiliza.
Asignación
múltiple de VF
VFAllocMult X X X X X X X X No 1-255 No Las funciones virtuales deben
asignarse a un puerto en
múltiplos de este mero.
Modo NParEP NParEP X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
VirtualizationMod
e - NPAR o
No El modo NParEP habilita más
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
NPAR + SR-IOV de 8 particiones en el
dispositivo. No debe
habilitarse si el sistema y el
sistema operativo no son
compatibles con dispositivos
que tengan más de 8
funciones físicas de PCI. La
configuración del atributo se
aplica a todos los puertos de
un controlador determinado.
Ancho de
banda TX
máximo de la
partición n
MaxBandwidth[Partition:n] X X 1-100 1-100 Representa el ancho de banda
de transmisión máximo de la
partición como porcentaje de
la velocidad máxima de
enlace del puerto físico. El
intervalo de ancho de banda
máximo es del 1-100 por
ciento para cada partición
habilitada. Si el valor de
ancho de banda máximo
configurado de forma remota
en la partición n es menor que
el ancho de banda mínimo en
la partición n, se utilizará el
ancho de banda mínimo.
Ancho de
banda TX
mínimo de la
partición n
MinBandwidth[Partition:n] X X Sí 1-100 1-100 Representa el ancho de banda
de transmisión mínimo de la
partición como porcentaje de
la velocidad máxima de
enlace del puerto físico. El
intervalo de ancho de banda
mínimo es del 1-100 por
ciento para cada partición
habilitada. El ancho de banda
mínimo de todas las
particiones habilitadas en un
puerto debe agregarse hasta
el 100 %. Si los porcentajes
de ancho de banda mínimo
configurados de forma remota
no suman 100, el firmware
los normalizará
automáticamente a 100.
LUN de inicio FirstTgtBootLun X X X X X X X X Sí 0-255 0-255 Sí Especifica el número de
unidadgica (LUN) de
arranque en el primer destino
de almacenamiento iSCSI.
Contraseña de
CHAP
FirstTgtChapPwd X X X X X X X X cadena cadena Especifica el secreto del
protocolo de autenticación por
desao mutuo (contraseña
CHAP) del primer destino de
almacenamiento iSCSI. El
valor de la cadena está
limitado a caracteres
alfanuméricos, "." (punto), ":"
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
(dos puntos) y "-" (guion).
Dirección IP FirstTgtIpAddress X X X X X X X X X.X.X.X X.X.X.X Especifica la dirección IP del
primer destino de iSCSI.
Nombre de
iSCSI
FirstTgtIscsiName X X X X X X X X cadena cadena Sí Especifica el nombre
completo de iSCSI (IQN) del
primer destino de
almacenamiento iSCSI. El
valor de la cadena está
limitado a caracteres
alfanuméricos, "." (punto), ":"
(dos puntos) y "-" (guion).
Puerto TCP FirstTgtTcpPort X X X X X X X X 1024-65535 1024-65535 Sí Especifica el número de
puerto TCP del primer
destino de iSCSI.
ID de CHAP IscsiInitiatorChapId X X X X X X X X cadena cadena ChapAuthEnable -
Enabled
(Habilitado)
Especifica el primer ID del
protocolo de autenticación por
desao mutuo (CHAP) del
primer destino de
almacenamiento iSCSI. El
valor de la cadena está
limitado a caracteres
alfanuméricos, "." (punto), ":"
(dos puntos) y "-" (guion).
Autenticación
CHAP
ChapAuthEnable X X X X X X X X Enabled/Disabled
(Habilitado/Deshabilitado)
Enabled/Disabled
(Habilitado/Deshabilitado)
No Habilita el iniciador para
utilizar la autenticación CHAP
al realizar la conexión al
destino de iSCSI.
Parámetros de
TCP/IP
mediante
DHCP
TcpIpViaDHCP X X X X X X X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
No Controla el origen de la
dirección IP, DHCP o
asignación estática del
iniciador. Esta opción es
específica de IPv4.
Versión de IP IpVer X X X X X X X X No IPv4 No Controla si se utilizará el
direccionamiento de red IPv4
o IPv6 para el iniciador y los
destinos de iSCSI.
Actualmente solo se acepta
IPv4.
Autenticación
mutua CHAP
ChapMutualAuth X X X X X X X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
ChapAuthEnable -
Enabled
(Habilitado)
No Habilita o deshabilita la
autenticación mutua CHAP.
Para utilizar la autenticación
mutua CHAP, debe
especificar un secreto del
iniciador en la página
Parámetros del iniciador y
configurar ese secreto en el
destino.
Parámetros de
iSCSI
mediante
DHCP
IscsiViaDHCP X X X X X X X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
TcpIpViaDHCP -
Enabled
(Habilitado)
No Habilita la adquisición de
parámetros de destino de
iSCSI desde DHCP.
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
Nombre de
iSCSI
IscsiInitiatorName X X X X X X X X Sí cadena cadena Especifica el nombre
completo de iSCSI (IQN) del
iniciador. La configuración del
atributo se aplica a todos los
puertos de un controlador
determinado. Se recomienda
utilizar el mismo valor de
IscsiInitiatorName en todos
los puertos para un
dispositivo determinado.
Contraseña de
CHAP
IscsiInitiatorChapPwd X X X X X X X X cadena cadena ChapAuthEnable -
Enabled
(Habilitado)
Establece el secreto
(contraseña) del protocolo de
autenticación por desafío
mutuo (CHAP) del iniciador
de iSCSI. El valor de la
cadena está limitado a
caracteres alfanuméricos, "."
(punto), ":" (dos puntos) y "-"
(guion).
Puerta de
enlace
predeterminad
a
IscsiInitiatorGateway X X X X X X X X X.X.X.X X.X.X.X TcpIpViaDHCP -
Disabled
(Deshabilitado)
Especifica la dirección IP de
la puerta de enlace
predeterminada utilizada por
el iniciador de iSCSI.
Dirección IP IscsiInitiatorIpAddr X X X X X X X X X.X.X.X X.X.X.X TcpIpViaDHCP -
Disabled
(Deshabilitado)
Especifica la dirección IP del
iniciador de iSCSI.
Máscara de
subred
IscsiInitiatorSubnet X X X X X X X X X.X.X.X X.X.X.X TcpIpViaDHCP -
Disabled
(Deshabilitado)
Especifica la máscara de
subred IPv4 del iniciador de
iSCSI.
LED
parpadeantes
BlnkLeds X X X X X X X X 0-15 0-15 No Especifica el número de
segundos que deben
parpadear los LED en el
puerto de red físico para
ayudar con la identificación
del puerto.
Dirección
MAC virtual
VirtMacAddr X X X X X X X X XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX Establece la dirección MAC
asignable programáticamente
para el puerto.
FlexAddressin
g
FlexAddressing X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la función
FlexAddressing de Dell.
Soporte de
iSCSI Boot
iSCSIBootSupport X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite iSCSI
Boot.
Compatibilidad
con versión de
IP dual de
iSCSI
iSCSIDualIPVersionSupport X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica la compatibilidad para
configuraciones IPv4 e IPv6
simultáneas del iniciador de
iSCSI y los destinos
primarios y secundarios de
iSCSI. Unavailable (No
disponible) es el único valor
que se utiliza.
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
Compatibilidad
con descarga
de iSCSI
iSCSIOffloadSupport X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad de descarga iSCSI.
Unavailable (No disponible)
es el único valor que se
utiliza.
Link Status LinkStatus X X X X X X X X No Disconnected/Connected
(Desconectado/Conectado)
No Indica el estado del enlace
sico de los puertos de red
que muestra el controlador.
Dirección
MAC
MacAddr X X X X X X X X No XX:XX:XX:XX:XX:XX No Indica la dirección MAC
permanente asignada durante
la fabricación.
Soporte de
particiones
NIC
NicPartitioningSupport X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad de creación de
particiones NIC.
Paso a través
de
administración
de BMC del
SO
OSBMCManagementPassThroug
h
X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad Paso a través de
administración de BMC del
SO.
ID de
dispositivo PCI
PCIDeviceID X X X X X X X No XXXX No Indica el ID de dispositivo PCI
del controlador.
Soporte de
inicio PXE
PXEBootSupport X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad PXE Boot.
Control de flujo
RX
RXFlowControl X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica se admite la capacidad
de control de flujo de
recepción (RX). Unavailable
(No disponible) es el único
valor que se utiliza.
Asistencia de
TOE
TOESupport X X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad Motor de descarga
TCP/IP. Unavailable (No
disponible) es el único valor
que se utiliza.
Control
máximo de
ancho de banda
de TX
TXBandwidthControlMaximum X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad Control máximo de
ancho de banda de
transmisión (TX).
Control de flujo
TX
TXFlowControl X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la
capacidad Control de flujo de
transmisión (TX).
Unavailable (No disponible)
es el único valor que se
utiliza.
Protocolo de
inicio heredado
LegacyBootProto X X X X X X X X None/PXE/iSCSI Primary/iSCSI
Secondary
(Ninguno/PXE/Primario de
iSCSI/Secundario de iSCSI)
None/PXE/iSCSI Primary/iSCSI
Secondary
(Ninguno/PXE/Primario de
iSCSI/Secundario de iSCSI)
No Selecciona un protocolo de
arranque que se utilizará en el
modo de arranque (no UEFI)
en el BIOS heredado.
ID de LAN VLanId X X X X X X X X 0-4094 0-4094 No Especifica el ID (etiqueta) que
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
virtual
heredado
debe utilizarse para el modo
de VLAN PXE. El ID de VLAN
debe tener un valor de 0 a
4094. VLAN PXE se
deshabilita si el valor se
establece en 0.
Wake On LAN WakeOnLan X X X X X X X X Disabled/Enabled/'N/A'
(Habilitado/Deshabilitado/"N/
C")
Disabled/Enabled/'N/A'
(Habilitado/Deshabilitado/"N/
C")
No Habilita el encendido del
sistema a través de la LAN.
Tenga en cuenta que
configurar Wake on LAN en el
sistema operativo no cambia
el valor de este ajuste, pero
que altera el comportamiento
de Wake on LAN en los
estados de alimentación
controlados por el SO.
Velocidad de
enlace
LnkSpeed X X X X X X X X *Sí Auto Negotiated/1000 Mbps
Full/10 Mbps Half/10 Mbps
Full/100 Mbps Half/100 Mbps
Full (Negociación
automática/Completo a 1000
Mbps/Medio a 10
Mbps/Completo a 10
Mbps/Medio a 100
Mbps/Completo a 100 Mbps)
Auto Negotiated/1000 Mbps
Full/10 Mbps Half/10 Mbps
Full/100 Mbps Half/100 Mbps
Full (Negociación
automática/Completo a 1000
Mbps/Medio a 10
Mbps/Completo a 10
Mbps/Medio a 100
Mbps/Completo a 100 Mbps)
No Especifica la velocidad de
enlace del puerto que se
utilizará al arrancar el
protocolo seleccionado.
*El atributo solo tiene permiso
de escritura en dispositivos
1G (I350).
Funciones
virtuales de
PCI
anunciadas
NumberVFAdvertised X X X X X X X X I350: 1-8, X520/X540/X550: 1-64,
X710/XL710/XXV710: 0-127
I350: 1-8, X520/X540/X550: 1-64,
X710/XL710/XXV710: 0-127
VirtualizationMod
e - SR-IOV
No Especifica el número de
funciones virtuales (VF) de
PCI que se va a anunciar en
modo distinto de NPAR. Los
valores disponibles varían
entre familias de productos.
En los dispositivos basados
en I350, X520, X540 y X550, el
valor representa el número
total de VF de PCI que se
compartirán entre todos los
puertos de un controlador
determinado. En todos los
demás dispositivos, el valor
representa el número de VF
de PCI que se dedicaa
cada puerto.
Funciones
virtuales de
PCI
anunciadas
NumberVFAdvertised X X Sí 0-128 0-128 VirtualizationMod
e - NPAR + SR-
IOV
No Especifica el número de
funciones virtuales (VF) de
PCI que se va a anunciar en
este puerto en modo de
NPAR. Este atributo solo está
presente en el navegador HII.
Las funciones virtuales en
modo NPAR solo pueden
asignarse a la primera
partición en un puerto. Utilice
el atributo VFDistribution para
la configuración remota.
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
Número de
funciones de
PCI físico
habilitadas
actualmente
por puerto
NumberPCIFunctionsEnabled X X X X No 1-8 No Indica el número de funciones
sicas de PCI habilitadas
actualmente en este puerto.
Número de
funciones
sicas de PCI
compatibles
NumberPCIFunctionsSupported X X X X No 1-8 No Indica el número de funciones
sicas de PCI admitidas en
este puerto. Este valor puede
cambiar en función de la
compatibilidad y
configuración de NParEP.
Partición n PartitionState[Partition:n] X X No Enabled/Disabled
(Habilitado/Deshabilitado)
No Indica el estado de
habilitación actual de la
partición.
Dirección
MAC virtual
VirtMacAddr[Partition:n] X X XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX Indica la dirección MAC
asignable programáticamente
para la partición.
Dirección
MAC
MacAddr[Partition:n] X X No XX:XX:XX:XX:XX:XX No Indica la dirección MAC
permanente asignada durante
la fabricación.
Modo NIC NicMode[Partition:n] X X No Disabled/Enabled
(Habilitado/Deshabilitado)
No Especifica el uso de la
partición para el tráfico L2-
Ethernet. Enabled (Activado)
es el único valor que se
utiliza.
ID de
dispositivo PCI
PCIDeviceID[Partition:n] X X No XXXX No Indica el ID de dispositivo PCI
de la partición.
Número de
puerto
PortNumber[Partition:n] X X No 1-4 No Indica el puerto al cual
pertenece la partición, donde
n es el número de particiones.
Distribución de
VF
VFDistribution X X X:0:0:0:...:0:0 (el número de
ceros depende del número de
particiones actualmente
habilitadas en el puerto).
X:0:0:0:...:0:0 (el número de
ceros depende del número de
particiones actualmente
habilitadas en el puerto).
VirtualizationMod
e - NPAR + SR-
IOV
No Define la distribución de las
VF a PF dentro del dominio
especificado por
VFAllocBasis. Aparece un
valor en la lista separada por
signos de dos puntos para
cada función física (PF) que
pueda estar potencialmente
presente en el dominio de
asignación. Los valores de la
lista, de izquierda a derecha,
se aplican a los números de
función en el dominio desde el
más pequeño al más grande.
Permit Total
Port Shutdown
(Permitir el
cierre total de
puertos)
PermitTotalPortShutdown X X X X Enabled/Disabled
(Habilitado/Deshabilitado)
Enabled/Disabled
(Habilitado/Deshabilitado)
No Especifica si se permite o no
desactivar completamente el
puerto cuando se recibe un
comando de desactivación de
puerto desde el sistema
operativo host.
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710 E810
Nota: Úselo con precaución;
el cierre de puerto detendrá
todas las operaciones
configuradas en el puerto
incluyendo WakeOnLAN y
LOM compartida.
Forward Error
Correction
(Corrección de
errores de
reenvío)
ForwardErrorCorrection X X Auto, Fire Code, RS-FEC,
Disabled (Auto, digo de
seguridad, RS-FEC,
deshabilitado)
Auto, Fire Code, RS-FEC,
Disabled (Auto, digo de
seguridad, RS-FEC,
deshabilitado)
Especifica el modo de
corrección de errores de
reenvío.
261
Exención de responsabilidades legales
Contrato de licencia del software
CONTRATO DE LICENCIA DEL SOFTWARE DE INTEL (Licencia, Final)
IMPORTANTE: LÉASE ANTES DE COPIAR, INSTALAR O UTILIZAR.
Lea atentamente los siguientes términos y condiciones antes de usar o instalar este software y los materiales
asociados (el Software). Al cargar o utilizar el Software, usted indica que acepta los términos de este Contrato. Si no
es dispuesto a aceptarlo, no instale ni utilice el Software.
LICENCIAS
Tenga en cuenta lo siguiente:
l Si es usted un administrador de redes, le corresponde la sección "Licencia de sitio".
l Si es un usuario final, le corresponde la sección "Licencia de usuario individual".
LICENCIA DE SITIO. Podrá copiar el software en los sistemas de su organización para su uso, y pod efectuar unmero
prudente de copias de seguridad del software, sujeto a las siguientes condiciones:
1. Se autoriza el uso de este Software únicamente en conjunto con los productos de componentes Intel. Este
documento no otorga licencia para el uso del software con productos de componentes ajenos a Intel.
2. No puede copiar, modificar, alquilar, vender, distribuir ni transferir parte alguna del Software, excepto según se
especifique en este Contrato, y se aviene a impedir la copia no autorizada del Software.
3. No puede usar técnicas de ingeniea inversa, descompilar o desensamblar el Software.
4. No puede otorgar sublicencias ni permitir el uso simultáneo del Software por más de un usuario.
5. El software pod incluir porciones que se ofrecen en términos agregados a los estipulados en el presente contrato,
según se expresan en la licencia que acompaña a esas porciones.
LICENCIA DE USUARIO ÚNICO. Puede copiar el Software en un único sistema para su uso personal, no comercial, y
realizar una copia de seguridad del Software con estas condiciones:
1. Se autoriza el uso de este Software únicamente en conjunto con los productos de componentes Intel. Este
documento no otorga licencia para el uso del software con productos de componentes ajenos a Intel.
2. No puede copiar, modificar, alquilar, vender, distribuir ni transferir parte alguna del Software, excepto según se
especifique en este Contrato, y se aviene a impedir la copia no autorizada del Software.
3. No puede usar técnicas de ingeniea inversa, descompilar o desensamblar el Software.
4. No puede otorgar sublicencias ni permitir el uso simultáneo del Software por más de un usuario.
5. El software pod incluir porciones que se ofrecen en términos agregados a los estipulados en el presente contrato,
según se expresan en la licencia que acompaña a esas porciones.
PROPIEDAD DEL SOFTWARE Y DERECHOS DE AUTOR. Todas las copias del Software seguirán siendo propiedad de
Intel o de sus proveedores. El Software está protegido por copyright y por las leyes de Estados Unidos y de otros países, y
tratados internacionales en materia de propiedad intelectual. No puede eliminar ningún aviso de copyright del Software.
Intel puede efectuar cambios en el Software o en los componentes a los que se hace referencia en el mismo en cualquier
momento y sin previo aviso, pero no está obligada a prestar asistencia ni a actualizar el Software. A menos que se estipule
expresamente lo contrario, Intel no concede derecho alguno, ya sea expreso o tácito, sobre las patentes, derechos de
copyright, marcas u otros derechos de propiedad intelectual de Intel. Puede transferir el Software solamente si el
destinatario acepta someterse plenamente a los presentes términos y si usted no retiene ninguna copia del Software.
GARANA LIMITADA DEL MEDIO. Si Intel ha entregado el software en soporte físico, garantiza que dicho soporte está
libre de defectos físicos de material durante un período de noventa días tras la entrega. Si encuentra algún defecto
semejante, devuelva el soporte a Intel para reemplazarlo o para que Intel le entregue el Software de otro modo, a
discreción de Intel.
Exención de responsabilidades legales
262
EXCLUSIÓN DE OTRAS GARANAS. EXCEPTO LO YA DISPUESTO, SE PROPORCIONA EL SOFTWARE EN EL
ESTADO QUE SE ENCUENTRA Y SIN GARANAS EXPRESAS O IMPLÍCITAS DE NINGÚN TIPO, ENTRE OTRAS,
GARANAS DE COMERCIABILIDAD, NO INFRACCIÓN O APTITUD PARA UN FIN DETERMINADO. Intel no garantiza ni
asume responsabilidad por la exactitud ni la integridad de ninguna información, texto, gfico, vínculo u otro elemento
contenido en el Software.
LIMITACIÓN DE RESPONSABILIDAD. EN NINGÚN CASO NI INTEL NI SUS PROVEEDORES SERÁN RESPONSABLES
POR DAÑO ALGUNO DERIVADO DEL USO DEL SOFTWARE, O DE NO PODER USARLO (INCLUYENDO, SIN
LIMITACIÓN ALGUNA, LOS DAÑOS DERIVADOS DEL LUCRO CESANTE, DE LA INTERRUPCIÓN DE LA ACTIVIDAD O
EL NEGOCIO, O DE LA PÉRDIDA DE DATOS O INFORMACIÓN), AUNQUE INTEL HUBIERA SIDO ADVERTIDA DE
DICHA POSIBILIDAD. EN ALGUNAS JURISDICCIONES ESTÁ PROHIBIDA LA EXCLUSIÓN O LIMITACN DE
RESPONSABILIDAD POR GARANTÍAS IMPLÍCITAS O POR DAÑOS CONSECUENTES O FORTUITOS, POR LO QUE LA
LIMITACIÓN ANTERIOR PODRÍA NO SER APLICABLE EN SU CASO. TAMBIÉN PODRÍA TENER OTROS DERECHOS
POR LEY QUE PUEDEN VARIAR DE UNA JURISDICCIÓN A OTRA.
RESCISIÓN DE ESTE CONTRATO. Intel puede rescindir este Contrato en cualquier momento si se violan sus términos.
Una vez rescindido, tend que destruir de inmediato el Software o devolver todas las copias a Intel.
LEGISLACIÓN APLICABLE. Cualquier litigio o reclamación que se derive de este contrato se regirá por la legislación del
Estado de California, con exclusión de sus principios de conflicto de leyes y la Convención de las Naciones Unidas sobre la
venta internacional de mercaderías. Queda prohibida la exportación del Software en contravención de las leyes y
reglamentos aplicables en materia de exportación. Intel no adquiere obligación alguna bajo ningún otro acuerdo a menos
que se formalice por escrito y esté debidamente firmado por un representante autorizado de Intel.
DERECHOS RESTRINGIDOS DEL ESTADO. El Software se suministra con "DERECHOS LIMITADOS". Su uso,
reproducción o divulgación por el Gobierno está sujeto a las restricciones establecidas en FAR52.227-14 y DFAR252.227-
7013 y siguientes, o sus sucesoras. El uso del Software por parte del Gobierno implica el reconocimiento de los derechos
de propiedad de Intel sobre el mismo. El contratista o fabricante es Intel.
Licencias de terceros
Esta versión puede incluir porciones de software distribuido con las siguientes licencias.
Open Toolkit Library (OpenTK)
La licencia de Open Toolkit library
Copyright (c) 2006 - 2009 The Open Toolkit library.
Por el presente se otorga permiso, libre de cargos, a cualquier persona que obtenga copia de este software y de los
documentos asociados (el "Software"), para trabajar en el software sin restricción alguna, incluidos, sin limitación, derechos
para usar, copiar, modificar, combinar, publicar, distribuir, subconceder, o vender copias del Software, y permitir a las
personas a quienes se proporcione el Software hacer lo mismo, sujeto a las siguientes condiciones
La notificación de derecho de copyright citada más arriba, y esta nota de permiso, deben ser incluidas en todas las
copias, o porciones substanciales del Software.
EL SOFTWARE SE ENA "TAL CUAL", SIN GARANTÍA DE NINGÚN TIPO, YA SEA EXPLÍCITA O IMPLÍCITA, INCLUIDAS,
ENTRE OTRAS, LAS GARANAS DE COMERCIABILIDAD, IDONEIDAD PARA UN DETERMINADO FIN Y AUSENCIA DE
INFRACCIÓN. EN NINGÚN CASO LOS AUTORES O TITULARES DE LOS DERECHOS DE PROPIEDAD INTELECTUAL
SERÁN RESPONSABLES DE LOS RECLAMOS, DAÑOS U OTRA RESPONSABILIDAD, TANTO SI TIENEN UN ORIGEN
CONTRACTUAL, POR AGRAVIO O DE OTRO TIPO, QUE SURGEN DENTRO O FUERA, O EN CONEXIÓN CON EL
SOFTWARE O EL USO DEL SOFTWARE U OTRAS TRANSACCIONES RELACIONADOS CON ESTE.
Terceros
* The Open Toolkit library incluye porciones de la biblioteca de clases Mono, que están cubiertas por la licencia siguiente:
Copyright (c) 2004 Novell, Inc.
Exención de responsabilidades legales
263
Por el presente se otorga permiso, libre de cargos, a cualquier persona que obtenga copia de este software y de los
documentos asociados (el "Software"), para trabajar en el software sin restricción alguna, incluidos, sin limitación, derechos
para usar, copiar, modificar, combinar, publicar, distribuir, subconceder, o vender copias del Software, y permitir a las
personas a quienes se proporcione el Software hacer lo mismo, sujeto a las siguientes condiciones:
La notificación de derecho de copyright citada más arriba, y esta nota de permiso, deben ser incluidas en todas las
copias, o porciones substanciales del Software.
EL SOFTWARE SE ENA "TAL CUAL", SIN GARANTÍA DE NINGÚN TIPO, YA SEA EXPLÍCITA O IMPLÍCITA, INCLUIDAS,
ENTRE OTRAS, LAS GARANAS DE COMERCIABILIDAD, IDONEIDAD PARA UN DETERMINADO FIN Y AUSENCIA DE
INFRACCIÓN. EN NINGÚN CASO LOS AUTORES O TITULARES DE LOS DERECHOS DE PROPIEDAD INTELECTUAL
SERÁN RESPONSABLES DE LOS RECLAMOS, DAÑOS U OTRA RESPONSABILIDAD, TANTO SI TIENEN UN ORIGEN
CONTRACTUAL, POR AGRAVIO O DE OTRO TIPO, QUE SURGEN DENTRO O FUERA, O EN CONEXIÓN CON EL
SOFTWARE O EL USO DEL SOFTWARE U OTRAS TRANSACCIONES RELACIONADOS CON ESTE.
* Las conversiones de precisión media a única y de precisión única a media están cubiertas por la licencia siguiente:
Copyright (c) 2002, Industrial Light & Magic, una división de Lucas Digital Ltd. LLC. Todos los derechos reservados.
Se permite la redistribución y uso en formato fuente o binario, con o sin modificación, siempre que se cumplan las
condiciones siguientes:
l Las redistribuciones de código fuente deben conservar el aviso de copyright anterior, esta lista de condiciones y la
renuncia de responsabilidad siguiente.
l Las redistribuciones en formato binario deben reproducir el aviso de copyright anterior, esta lista de condiciones y la
renuncia de responsabilidad siguiente en la documentación o los materiales proporcionados con la distribución.
l Ni el nombre de Industrial Light & Magic ni los nombres de sus colaboradores deben emplearse para promocionar
productos derivados de este software sin un previo permiso por escrito correspondiente.
LOS PORTADORES DE COPYRIGHT Y LOS CONTRIBUIDORES PROPORCIONAN ESTE SOFTWARE TAL CUAL”, Y SE
RENUNCIA A CUALQUIER GARANA EXPLÍCITA O IMPLÍCITA, INCLUSO Y SIN LIMITACIÓN, LAS GARANAS
IMPLÍCITAS DE COMERCIABILIDAD E IDONEIDAD PARA UN PROPÓSITO PARTICULAR. EL PROPIETARIO DEL
COPYRIGHT O LOS CONTRIBUIDORES NO SERÁN RESPONSABLES EN NINGÚN MOMENTO POR DAÑOS DIRECTOS,
INDIRECTOS, CASUALES, ESPECIALES, TÍPICOS O CONSECUENTES (LO CUAL INCLUYE, SIN LIMITACIÓN, LA
ADQUISICN DE BIENES O SERVICIOS; LA PÉRDIDA DE USO, DATOS O GANANCIAS; O LA INTERRUPCN
COMERCIAL) OCASIONADOS DE CUALQUIER MODO Y BAJO CUALQUIER TEORÍA DE RESPONSABILIDAD, YA SEA
BAJO CONTRATO, RESPONSABILIDAD ESTRICTA O AGRAVIO (LO CUAL INCLUYE LA NEGLIGENCIA O CUALQUIER
OTRO) QUE SURJA DE CUALQUIER MANERA POR EL USO DE ESTE SOFTWARE, AÚN SI SE NOTIFICA DE LA
POSIBILIDAD DE DICHOS DOS.
RSA Data Security-MD5 Message
RSA Data Security
Copyright (C) 1991-2, RSA Data Security, Inc. Creado en 1991. Todos los derechos reservados.
La licencia para copiar y utilizar este software se concede siempre que se identifique como "RSA Data Security, Inc. MD5
Message-Digest Algorithm" en todo el material que mencione o haga referencia a este software o esta función.
Asimismo, se concede la licencia para crear y utilizar trabajos derivados siempre que dichos trabajos se identifiquen como
"derivados de RSA Data Security, Inc. MD5 Message-Digest Algorithm" en todo el material que mencione o haga referencia
al trabajo derivado.
RSA Data Security, Inc. no hace ninguna representación sobre la comerciabilidad o adecuación de este software para
cualquier propósito espefico. Se proporciona "tal cual" sin ninn tipo de garantía, ni expresa ni implícita.
Estos avisos deben conservarse en todas las copias de cualquier parte de este software o documentación.
Restricciones y exenciones de responsabilidad
La informacn de este documento es sujeta a cambios sin previo aviso.
Copyright © 2008-2021, Intel Corporation. Todos los derechos reservados.
Exención de responsabilidades legales
264
Marcas comerciales que se utilizan en este texto: Dell EMC y el logotipo de Dell EMC son marcas comerciales de Dell, Inc.;
Intel es una marca comercial de Intel Corporation o de sus filiales en Estados Unidos y/o en otros países.
* En este documento se podrían utilizar marcas comerciales y nombres comerciales para hacer referencia a las entidades
que reclaman las marcas y nombres o sus productos. Intel Corporation rechaza cualquier interés sobre la propiedad de
marcas registradas y nombres comerciales distintos de los suyos propios.
Restricciones y exenciones de responsabilidad
El proveedor del dispositivo mencionado suminist la información que se incluye en este documento, incluyendo las
instrucciones, advertencias, aprobaciones y certificaciones normativas, pero carece de la verificación y las pruebas
independientes de la empresa Dell. Dell EMC no se responsabiliza por ningún daño causado como resultado de seguir o
ignorar estas instrucciones.
El autor de todas las descripciones o afirmaciones relacionadas con las propiedades, la capacidad, la velocidad y las
calificaciones del producto mencionadas en este documento es el proveedor y no la empresa Dell EMC. Dell EMC
específicamente declara que desconoce la precisión de dichas descripciones, a como cuán completas sean o si se han
comprobado. Se debe dirigir cualquier pregunta o comentario relacionado con dichas descripciones o afirmaciones
directamente al proveedor.
Reglamentos de exportaciones
El cliente reconoce que estos productos, que pueden incluir tecnología y software, están sujetos a las leyes y reglamentos
de control de exportaciones y aduanas de los Estados Unidos (EE. UU.) y que también podrían estar sujetos a las leyes y
reglamentos de exportación y aduanas del país en el que se fabricaron o se recibieron los productos. El cliente acepta
acatar dichas leyes y reglamentos. s aún, bajo la ley de los EE. UU., los productos no pueden ser vendidos, rentados ni
transferidos de ninguna otra forma a usuarios finales restringidos ni a países restringidos. Además, los productos no
pueden ser vendidos, rentados o transferidos de ninguna otra forma, ni utilizados por usuarios finales que realicen
actividades relacionadas con armas de destrucción masiva, incluyendo, entre otras, las actividades relacionadas con el
diseño, desarrollo, producción o uso de armas nucleares, materiales o instalaciones, misiles o el apoyo de proyectos de
misiles y armas químicas o biogicas.
11 de enero de 2021
  • Page 1 1
  • Page 2 2
  • Page 3 3
  • Page 4 4
  • Page 5 5
  • Page 6 6
  • Page 7 7
  • Page 8 8
  • Page 9 9
  • Page 10 10
  • Page 11 11
  • Page 12 12
  • Page 13 13
  • Page 14 14
  • Page 15 15
  • Page 16 16
  • Page 17 17
  • Page 18 18
  • Page 19 19
  • Page 20 20
  • Page 21 21
  • Page 22 22
  • Page 23 23
  • Page 24 24
  • Page 25 25
  • Page 26 26
  • Page 27 27
  • Page 28 28
  • Page 29 29
  • Page 30 30
  • Page 31 31
  • Page 32 32
  • Page 33 33
  • Page 34 34
  • Page 35 35
  • Page 36 36
  • Page 37 37
  • Page 38 38
  • Page 39 39
  • Page 40 40
  • Page 41 41
  • Page 42 42
  • Page 43 43
  • Page 44 44
  • Page 45 45
  • Page 46 46
  • Page 47 47
  • Page 48 48
  • Page 49 49
  • Page 50 50
  • Page 51 51
  • Page 52 52
  • Page 53 53
  • Page 54 54
  • Page 55 55
  • Page 56 56
  • Page 57 57
  • Page 58 58
  • Page 59 59
  • Page 60 60
  • Page 61 61
  • Page 62 62
  • Page 63 63
  • Page 64 64
  • Page 65 65
  • Page 66 66
  • Page 67 67
  • Page 68 68
  • Page 69 69
  • Page 70 70
  • Page 71 71
  • Page 72 72
  • Page 73 73
  • Page 74 74
  • Page 75 75
  • Page 76 76
  • Page 77 77
  • Page 78 78
  • Page 79 79
  • Page 80 80
  • Page 81 81
  • Page 82 82
  • Page 83 83
  • Page 84 84
  • Page 85 85
  • Page 86 86
  • Page 87 87
  • Page 88 88
  • Page 89 89
  • Page 90 90
  • Page 91 91
  • Page 92 92
  • Page 93 93
  • Page 94 94
  • Page 95 95
  • Page 96 96
  • Page 97 97
  • Page 98 98
  • Page 99 99
  • Page 100 100
  • Page 101 101
  • Page 102 102
  • Page 103 103
  • Page 104 104
  • Page 105 105
  • Page 106 106
  • Page 107 107
  • Page 108 108
  • Page 109 109
  • Page 110 110
  • Page 111 111
  • Page 112 112
  • Page 113 113
  • Page 114 114
  • Page 115 115
  • Page 116 116
  • Page 117 117
  • Page 118 118
  • Page 119 119
  • Page 120 120
  • Page 121 121
  • Page 122 122
  • Page 123 123
  • Page 124 124
  • Page 125 125
  • Page 126 126
  • Page 127 127
  • Page 128 128
  • Page 129 129
  • Page 130 130
  • Page 131 131
  • Page 132 132
  • Page 133 133
  • Page 134 134
  • Page 135 135
  • Page 136 136
  • Page 137 137
  • Page 138 138
  • Page 139 139
  • Page 140 140
  • Page 141 141
  • Page 142 142
  • Page 143 143
  • Page 144 144
  • Page 145 145
  • Page 146 146
  • Page 147 147
  • Page 148 148
  • Page 149 149
  • Page 150 150
  • Page 151 151
  • Page 152 152
  • Page 153 153
  • Page 154 154
  • Page 155 155
  • Page 156 156
  • Page 157 157
  • Page 158 158
  • Page 159 159
  • Page 160 160
  • Page 161 161
  • Page 162 162
  • Page 163 163
  • Page 164 164
  • Page 165 165
  • Page 166 166
  • Page 167 167
  • Page 168 168
  • Page 169 169
  • Page 170 170
  • Page 171 171
  • Page 172 172
  • Page 173 173
  • Page 174 174
  • Page 175 175
  • Page 176 176
  • Page 177 177
  • Page 178 178
  • Page 179 179
  • Page 180 180
  • Page 181 181
  • Page 182 182
  • Page 183 183
  • Page 184 184
  • Page 185 185
  • Page 186 186
  • Page 187 187
  • Page 188 188
  • Page 189 189
  • Page 190 190
  • Page 191 191
  • Page 192 192
  • Page 193 193
  • Page 194 194
  • Page 195 195
  • Page 196 196
  • Page 197 197
  • Page 198 198
  • Page 199 199
  • Page 200 200
  • Page 201 201
  • Page 202 202
  • Page 203 203
  • Page 204 204
  • Page 205 205
  • Page 206 206
  • Page 207 207
  • Page 208 208
  • Page 209 209
  • Page 210 210
  • Page 211 211
  • Page 212 212
  • Page 213 213
  • Page 214 214
  • Page 215 215
  • Page 216 216
  • Page 217 217
  • Page 218 218
  • Page 219 219
  • Page 220 220
  • Page 221 221
  • Page 222 222
  • Page 223 223
  • Page 224 224
  • Page 225 225
  • Page 226 226
  • Page 227 227
  • Page 228 228
  • Page 229 229
  • Page 230 230
  • Page 231 231
  • Page 232 232
  • Page 233 233
  • Page 234 234
  • Page 235 235
  • Page 236 236
  • Page 237 237
  • Page 238 238
  • Page 239 239
  • Page 240 240
  • Page 241 241
  • Page 242 242
  • Page 243 243
  • Page 244 244
  • Page 245 245
  • Page 246 246
  • Page 247 247
  • Page 248 248
  • Page 249 249
  • Page 250 250
  • Page 251 251
  • Page 252 252
  • Page 253 253
  • Page 254 254
  • Page 255 255
  • Page 256 256
  • Page 257 257
  • Page 258 258
  • Page 259 259
  • Page 260 260
  • Page 261 261
  • Page 262 262
  • Page 263 263
  • Page 264 264

Dell Intel PRO Family of Adapters Guía del usuario

Tipo
Guía del usuario