Dell Intel PRO Family of Adapters Guía del usuario

Categoría
Tarjetas de redes
Tipo
Guía del usuario
Adaptadores y dispositivos Intel
®
Ethernet
Ga del usuario
Visn general
Bienvenidos a la Guía del usuario de los adaptadores y dispositivos Intel® Ethernet. Este manual describe la
instalación del hardware y software, los procedimientos de configuración y pautas para la resolución de problemas
para los adaptadores de red Intel, conexiones y otros dispositivos.
Instalación del adaptador de red
Si está instalando un adaptador de red, siga este procedimiento desde el paso 1.
Si está actualizando el software del controlador, empiece con el paso 4.
NOTA: si actualiza el firmware, debe actualizar el software del controlador a la versión de la misma familia.
1. Revise los requisitos del sistema.
2. Introduzca el adaptador PCI Express, la tarjeta Mezzanine o la tarjeta dependiente de red en su servidor.
3. Conecte con cuidado los cables de cobre, cables de fibra o cables de conexión directa de su red.
4. Instale los controladores de red y el resto del software.
l Instrucciones de Windows
l Instrucciones de Linux
5. Prueba del adaptador.
Destinatarios
Este documento está dirigido a profesionales de la tecnología de la información con un alto nivel de conocimiento,
experiencia y competencia en la tecnología de redes Ethernet.
Antes de comenzar
Dispositivos compatibles
Adaptadores de red 40 Gigabit compatibles
l Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
l Adaptador de Ethernet de red convergente Intel® XL710-Q2
NOTAS:
l Los dispositivos basados en el controlador Intel Ethernet XL710 (4x10 GbE, 1x40 GbE, 2x40 GbE)
tienen un rendimiento total esperado para todo el dispositivo de 40 Gb/s en cada dirección.
l El primer puerto de los adaptadores basados en el controlador Intel® Ethernet de la serie 700 mostrará
la cadena de marca correcta. Todos los des puertos del mismo dispositivo mostrarán una cadena de
marca genérica.
l Para que un adaptador basado en el controlador Intel® Ethernet de la serie 700 alcance su pleno
potencial, debe instalarlo en una ranura PCIe Gen3 x8. Si se instala en una ranura más corta, o en una
ranura Gen2 o Gen1, el rendimiento del adaptador se verá limitado.
Adaptadores de red 25 Gigabit compatibles
l Intel® Ethernet 25G 2P XXV710 Mezz
l Adaptador Intel® Ethernet 25G 2P XXV710
NOTAS:
l Los dispositivos basados en el controlador Intel Ethernet XXV710 (2x25 GbE) tienen un límite total de
rendimiento de hardware para todo el dispositivo de ~96-97 % de la velocidad de línea de 25 GbE de
doble puerto en cada dirección para paquetes grandes de TCP IPv4 (>1518 bytes) con un tamaño de
MTU de 1500 bytes. Por ejemplo, el rendimiento total de la carga se limita a ~45,5 Gb/s en cada
dirección. Por lo tanto, aunque el rendimiento de 25 GbE de un solo puerto no se ve afectado, se espera
que el rendimiento total simultáneo de 25 GbE del doble puerto sea ligeramente inferior al de la
velocidad de línea.
El primer puerto de los adaptadores basados en el controlador Intel® Ethernet de la serie 700 mostrará
la cadena de marca correcta. Todos los des puertos del mismo dispositivo mostrarán una cadena de
marca genérica.
Adaptadores de red 10 Gigabit compatibles
l Adaptador Intel® Ethernet 10G 2P X520
l Intel® Ethernet 10G X520 LOM
l Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador Intel® Ethernet 10G 2P X540-t
l Adaptador Intel® Ethernet 10G 2P X550-t
l Intel® Ethernet 10G 4P X550 rNDC
l Intel® Ethernet 10G 4P X550/I350 rNDC
l Intel® Ethernet 10G 4P X540/I350 rNDC
l Intel® Ethernet 10G 4P X520/I350 rNDC
l Intel® Ethernet 10G 2P X520-k bNDC
l Intel® Ethernet 10G 4P X710-k bNDC
l Intel® Ethernet 10G 2P X710-k bNDC
l Intel® Ethernet 10G X710-k bNDC
l Adaptador de Ethernet de red convergente Intel® X710
l Adaptador de Ethernet de red convergente Intel® X710-T
l Intel® Ethernet 10G 4P X710/l350 rNDC
l Intel® Ethernet 10G 4P X710 SFP+ rNDC
l Intel® Ethernet 10G X710 rNDC
l Intel® Ethernet Server Adapter X710-DA2 para OCP para servidores
l Intel® Ethernet 10G 2P X710 OCP
l Intel® Ethernet 10G 4P X710 OCP
l Intel® Ethernet 10G 2P X710-T2L-t OCP
l Adaptador Intel® Ethernet 10G 2P X710-T2L-t
NOTA:
El primer puerto de los adaptadores basados en el controlador Intel® Ethernet de la serie 700 mostrará la
cadena de marca correcta. Todos los des puertos del mismo dispositivo mostrarán una cadena de marca
genérica.
Dispositivos y adaptadores de red Gigabit compatibles
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
l Intel® Ethernet 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
l Placa posterior de conexión Intel® Ethernet I354 1.0 GbE
l Intel® Gigabit 2P I350-t LOM
l Intel® Gigabit I350-t LOM
l Intel® Gigabit 2P I350 LOM
Sistemas operativos admitidos
Sistemas operativos con arquitectura Intel® 64 compatibles
l Microsoft Windows Server 2019, versión 1903
l Microsoft Windows Server 2019
l Microsoft* Windows Server* 2016
l VMWare* ESXi* 6.7 U3
l VMWare* ESXi* 6.5 U3
l Red Hat* Enterprise Linux* (RHEL) 8.1
l Red Hat* Enterprise Linux* (RHEL) 7.7
l Novell* SUSE* Linux Enterprise Server (SLES) 15 SP1
Compatibilidad del hardware
Antes de instalar el adaptador, realice las siguientes comprobaciones en el sistema:
l El BIOS s reciente para su sistema
l Una ranura de PCI Express* abierta (consulte las especificaciones de su tarjeta para conocer las ranuras
compatibles)
Requisitos de los cables
Consulte la sección Conexión de los cables de red.
Visión general de la instalación
Instalación del adaptador
1. Apague el equipo y desconecte el cable de energía.
2. Quite la cubierta del sistema y la cubierta de la ranura del adaptador en la ranura que corresponde al
adaptador.
3. Inserte el conector del borde del adaptador en la ranura y asegure el soporte del chasis.
4. Vuelva a colocar la cubierta y conecte el cable de alimentación.
NOTA: para obtener más información sobre la identificación de ranuras PCI Express compatibles con sus
adaptadores, consulte la guía de su sistema Dell EMC.
Instalación de controladores y software
Sistemas operativos Windows*
Para poder instalar los controladores, debe tener derechos de administrador en el sistema operativo.
1. Descargue los controladores más recientes desde el sitio web de asistencia y transfiéralos al sistema.
2. Si se muestra la pantalla del asistente de detección de nuevo hardware, haga clic en Cancel (Cancelar).
3. Haga doble clic en el archivo descargado.
4. Seleccione Install (Instalar) en la pantalla del paquete de actualizaciones de Dell.
5. Siga las instrucciones del asistente de instalación. Asegúrese de seleccionar Intel PROSet para la instalación.
NOTA: asegúrese de seleccionar la opción de instalación "iSCSI using Data Center Bridging" (iSCSI con
puentes de centro de datos) para sistemas que tienen un dispositivo preparado para NPAR instalado.
Instalación de controladores de Linux* desde el digo fuente
1. Descargue y expanda el archivo con la extensión tar del controlador.
2. Compile el módulo del controlador.
3. Instale el módulo con el comando modprobe.
4. Asigne una dirección IP mediante el comando ifconfig.
Instalación de controladores de Linux desde RPM
1. Descargue y expanda el archivo con la extensión tar del controlador.
2. Compile el módulo del controlador.
3. Instale el controlador con el comando rpm.
Consulte la sección de Linux de esta guía, donde encontrará información espefica.
Optimización del rendimiento
Puede definir la configuración avanzada de los adaptadores de red Intel para ayudar a optimizar el rendimiento del
servidor.
En la sección Optimización general se incluyen secciones que proporcionan información acerca de los tres modelos
de uso del servidor:
l Optimizado para respuesta rápida y baja latencia: útil para servidores de vídeo, audio y con clúster de cálculo
de alto rendimiento (HPCC)
l Optimizado para rendimiento: útil para servidores de archivos y de copia de seguridad y recuperación de datos
l Optimizado para utilización de la CPU: útil para servidores de aplicaciones, web, correo y bases de datos
NOTAS:
l Los usuarios de Linux deberán consultar la sección sobre Linux de esta guía y el archivo LÉAME del
paquete de controlador de Linux para ver los detalles de mejora del rendimiento espeficos de Linux.
l Las recomendaciones que se indican a continuación son pautas y deben ser tratadas como tales. Hay
más factores, como las aplicaciones instaladas, el tipo de bus, la topología de la red y el sistema
operativo, que tambn afectan el rendimiento del sistema.
l Estos ajustes los debe realizar un administrador de red con sólida experiencia. No se garantiza que
estos mejoren el rendimiento. Todos los ajustes que se muestran aqpueden no estar disponibles
mediante la configuración del controlador de red, el sistema operativo o la configuración del BIOS del
sistema.
l Al utilizar software de prueba de rendimiento, consulte la documentación de la aplicación para obtener
resultados óptimos.
Optimizacn general
l Instale el adaptador en una ranura adecuada.
NOTA: algunas ranuras PCIe x8 están configuradas en realidad como ranuras x4. Estas ranuras tienen
un ancho de banda insuficiente para la velocidad de línea entera con algunos dispositivos de doble
puerto. El controlador puede detectar esta situación y escribirá el mensaje siguiente en el registro del
sistema: "PCI Express bandwidth available for this card is not sufficient for optimal performance" (El
ancho de banda de PCI Express disponible para esta tarjeta no es suficiente para conseguir un
rendimiento óptimo). "For optimal performance a x8 PCI-Express slot is required." (Para conseguir un
rendimiento óptimo es necesaria una ranura x8 PCI-Express). Si se produce este error, traslade el
adaptador a una ranura x8 verdadera para solucionar el problema.
l Para que un adaptador de red de la serie 710 de Intel® alcance su pleno potencial, debe instalarlo en una
ranura PCIe Gen3 x8. Si se instala en una ranura más corta, o en una ranura Gen2 o Gen1, el rendimiento del
adaptador se verá limitado.
l Utilice el cableado adecuado para su dispositivo.
l Aumente elmero de recursos de TCP y de zócalo a partir del valor predeterminado. Para los sistemas
basados en Windows, no hemos identificado pametros de sistema, ades del tamaño de ventana TCP, que
afecten significativamente el rendimiento.
l Aumente el tamaño de asignación de recursos del controlador (búferes de transmisión y recepción). Sin
embargo, la mayoría de los patrones de tfico TCP funcionan mejor cuando el búfer de transmisión se
establece en el valor predeterminado y elfer de recepción se establece en el valor mínimo.
Tramas jumbo
La habilitación de las tramas jumbo puede aumentar el rendimiento. Debe habilitar las tramas jumbo en todos los
componentes de red para poder aprovechar las ventajas.
Colas de RSS
Si cuenta con varios puertos de 10 Gpbs (o más rápidos) instalados en un sistema, las colas RSS de cada puerto de
adaptador pueden ajustarse para utilizar conjuntos de procesadores no superpuestos dentro del Nodo/Zócalo de
NUMA local del adaptador. Cambie elmero de procesador base de RSS para cada puerto de adaptador, de
manera que la combinación del procesador base y elmero máximo de la configuración de los procesadores RSS
garanticen que no se solapen los núcleos. Para sistemas Microsoft Windows, haga lo siguiente:
1. Identifique los puertos de adaptador para ajustar e inspeccione RssProcessorArray utilizando el cmdlet Get-
NetAdapterRSS de PowerShell.
2. Identifique los procesadores con distancias 0 NUMA. Estos son los núcleos en el Nodo/Zócalo de NUMA local
del adaptador y proporcionan el mejor rendimiento.
3. Ajuste el procesador base de RSS en cada puerto para utilizar un conjunto de procesadores no superpuestos
dentro del conjunto de procesadores locales. Puede hacerlo manualmente o utilizando el siguiente comando
de PowerShell:
Set-NetAdapterAdvancedProperty -Name <Nombre de adaptador> -DisplayName "RSS Base
Processor Number" -DisplayValue <Valor de procesador base de RSS>
4. Utilice el cmdlet Get-NetAdapterAdvancedproperty para comprobar que se han configurado los valores
correctos:
Get-NetAdapterAdvancedproperty -Name <nombre del adaptador>
Por ejemplo: para un adaptador de 4 puertos con los procesadores locales 0, 2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24,
26, 28, 30, y 'Max RSS processor' de 8, establezca los procesadores de base de RSS en 0, 8, 16 y 24.
Afinidad de la CPU
Al transmitir el tfico por varios puertos de red utilizando una aplicación E/S que se ejecuta en la mayoa o en todos
los núcleos de su sistema, puede establecer la afinidad de CPU para esa aplicación con menos núcleos. Esto debería
reducir la utilización de la CPU y, en algunos casos, puede aumentar el rendimiento del dispositivo. Los núcleos
seleccionados para la afinidad de CPU deben ser locales para el procesador Nodo/Grupo del dispositivo de red
afectado. Puede utilizar el comando de PowerShell Get-NetAdapterRSS para enumerar los núcleos que son locales
para un dispositivo. Puede que sea necesario aumentar elmero decleos asignados a la aplicación para
maximizar el rendimiento. Consulte la documentación de su sistema operativo para obtener s detalles sobre la
configuración de la afinidad de CPU.
Optimizado para respuesta rápida y baja latencia
l Minimice o deshabilite la tasa de moderación de interrupciones.
l Deshabilite la descarga de segmentación TCP.
l Deshabilite los paquetes jumbo.
l Aumente los descriptores de transmisión.
l Aumente los descriptores de recepción.
l Aumente las colas de RSS.
Optimizado para rendimiento
l Active los paquetes jumbo.
l Aumente los descriptores de transmisión.
l Aumente los descriptores de recepción.
l En los sistemas compatibles con NUMA, establezca el nodo NUMA preferido en cada adaptador para
conseguir un mejor escalado entre nodos NUMA.
Optimizado para utilizacn de la CPU
l Maximice la tasa de moderación de interrupciones.
l Conserve el valor predeterminado para el número de descriptores de recepción; evite establecer números
grandes de descriptores de recepción.
l Reduzca las colas de RSS.
l En entornos Hyper-V, reduzca elmero máximo de CPU de RSS.
Almacenamiento remoto
Las funciones de almacenamiento remoto permiten acceder a SAN o a otros sistemas de almacenamiento en red
utilizando protocolos Ethernet. Esto incluye Data Center Bridging (DCB) e iSCSI sobre DCB.
DCB (Puentes de centro de datos)
La Habilitación de puentes de centro de datos (DCB) es un conjunto de ampliaciones basadas en estándares de la
Ethernet clásica. Proporciona una capa de transporte de centro de datos sin pérdidas que permite la convergencia de
las LAN y las SAN en una infraestructura unificada única.
Además, DCB es una implementación de calidad de servicio de configuración en el hardware. Utiliza la etiqueta de
prioridad VLAN (802.1p) para filtrar el tfico. Esto significa que hay 8 prioridades diferentes con las que se puede
filtrar el tfico. También permite un control de flujo prioritario (802.1Qbb) que puede limitar o eliminar lardida de
paquetes durante los momentos de mayor uso de la red. Se puede asignar un ancho de banda a cada una de estas
prioridades, que se aplica en el nivel de hardware (802.1Qaz).
El firmware del adaptador implementa los agentes de los protocolos LLDP y DCBX de acuerdo con 802.1AB y
802.1Qaz, respectivamente.
Consulte "DCB (Habilitación de puentes de centro de datos) para conexiones de red Intel®" en la página 117 si desea
obtener más información.
NOTA: en dispositivos basados en X710 que utilizan Microsoft Windows, los puentes de centro de datos (DCB)
solo son compatibles con la versión del firmware 17.0.12 y versiones posteriores. Las versiones de NVM
anteriores se deben actualizar para que el adaptador pueda usar DCB en Windows.
Dispositivos compatibles
Todos los dispositivos con capacidad de 10 GbE o más rápidos admiten DCB.
NOTA: Cuando un dispositivo está en modo NPar, solo puede configurar DCB mediante la Configuración del
sistema/BIOS.
iSCSI en DCB
Los adaptadores Intel® Ethernet son compatibles con los iniciadores de software iSCSI nativos del sistema operativo
subyacente. Los adaptadores basados en Intel® 82599 y X540 son compatibles con iSCSI en una nube de
habilitación de puentes de centro de datos (DCB). Si se utiliza junto con conmutadores y destinos que admitan la
aplicación TLV de iSCSI/DCB, esta solución puede proporcionar un ancho de bandanimo garantizado para el
tráfico iSCSI entre el host y el destino. Esta solución permite a los administradores de almacenamiento segmentar el
tráfico iSCSI y distinguirlo del tfico LAN. Anteriormente, el proveedor de conmutadores trataba como tráfico LAN el
tráfico iSCSI dentro de un entorno compatible con DCB. Consulte a sus proveedores de conmutador y de destino si
son compatibles con la aplicación TLV de iSCSI/DCB.
Arranque remoto
El arranque remoto permite arrancar un sistema solo con un adaptador de Ethernet. Puede conectarse a un servidor
que contenga una imagen del sistema operativo y utilizarlo para arrancar su sistema local.
Intel
®
Boot Agent
Intel® Boot Agent es un producto de software que permite a los equipos conectados en una red iniciarse por medio de
una imagen de código de programa suministrada por un servidor remoto. Intel Boot Agent se ajusta a la especificación
de Pre-boot eXecution Environment (PXE), versión 2.1. Es compatible con los entornos legados de Boot Agent que
utilizan el protocolo BOOTP.
Dispositivos compatibles
Para todos los dispositivos compatibles con esta versión, PXE se habilita a tras del entorno de uEFI (interfaz HII).
Bootutil se puede utilizar para cambiar las opciones de arranque remoto cuando el servidor se establece en modo de
arranque heredado en el BIOS. Si se arranca en modo EFI, el BIOS del servidor gestionará los cambios del modo de
arranque. Bootutil no se puede utilizar para actualizar la imagen de arranque del dispositivo. La actualización del
adaptador se gestiona a través del correspondiente paquete de actualización de Dell.
Arranque iSCSI de Ethernet Intel
®
Arranque iSCSI de Ethernet Intel® ofrece la función de iniciar un sistema cliente desde un volumen de disco iSCSI
remoto ubicado en una red de área de almacenamiento (SAN) basada en iSCSI.
Dispositivos compatibles
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P I350 bNDC
l Intel® Gigabit 2P I350-t LOM
l Intel® Gigabit I350-t LOM
l Intel® Gigabit 2P I350 LOM
l Intel® Gigabit 4P I350-t Mezz
l Intel® Ethernet 1G 4P I350-t OCP
l Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador Intel® Ethernet 10G 2P X520
l Intel® Ethernet 10G 2P X520-k bNDC
l Intel® Ethernet 10G X520 LOM
l Intel® Ethernet 4P X520/I350 rNDC
l Adaptador Intel® Ethernet 10G 2P X540-t
l Intel® Ethernet 10G 4P X540/I350 rNDC
l Adaptador Intel® Ethernet 10G 2P X550-t
l Adaptador de Ethernet de red convergente Intel® XL710-Q2
l Intel® Ethernet 10G 4P X550 rNDC
l Intel® Ethernet 10G 4P X550/I350 rNDC
l Adaptador de Ethernet de red convergente Intel® X710
l Intel® Ethernet 10G 2P X710 OCP
l Intel® Ethernet 10G 2P X710-k bNDC
l Intel® Ethernet 10G 4P X710-k bNDC
l Intel® Ethernet 10G X710-k bNDC
l Intel® Ethernet 10G 4P X710/l350 rNDC
l Intel® Ethernet 10G 4P X710 SFP+ rNDC
l Intel® Ethernet 10G X710 rNDC
l Adaptador de red convergente Intel® X710-T
l Adaptador de Ethernet Intel® X710-DA2 para OCP para servidores
l Adaptador Intel® Ethernet 25G 2P XXV710
l Intel® Ethernet 25G 2P XXV710 Mezz
l Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
Soporte para virtualización
La virtualización hace posible que uno o varios sistemas operativos se ejecuten de manera simultánea en el mismo
sistema físico como quinas virtuales. Esto le permite consolidar varios servidores en un solo sistema, aunque
funcionen con sistemas operativos distintos. Los adaptadores de red Intel® funcionan con y dentro de máquinas
virtuales con sus controladores y software estándar.
NOTAS:
l Algunas opciones de virtualización no están disponibles en algunas combinaciones de
adaptador/sistema operativo.
l La configuración de tramas jumbo en una máquina virtual debe ser la misma o inferior a la
configuración en el puerto físico.
l Si se conecta una máquina virtual a una red superpuesta inquilina a través de puertos NIC virtuales en
un conmutador virtual, los colectores de encapsulación aumentan el tamaño de la unidad de
transmisión xima (MTU) del puerto virtual. La función de sobrecarga de encapsulación ajusta
automáticamente el tamaño de la MTU del puerto físico para compensar este aumento.
Utilizacn de adaptadores de red Intel
®
en un entorno Microsoft* Hyper-V*
Cuando se crea una interfaz NIC virtual (VNIC) de Hyper-V en el SO host, la VNIC toma la dirección MAC de la NIC
sica subyacente (PF o función física). Dado que la VNIC utiliza la dirección MAC de la interfaz subyacente, cualquier
operación que cambie la dirección MAC de la interfaz (por ejemplo, definir LAA en la interfaz), causa una pérdida de
conectividad de la VNIC. Para prevenir esta pérdida de conectividad, Intel® PROSet no le permiti cambiar
configuraciones que modifiquen la dirección MAC.
NOTAS:
l Cuando se envían desde dentro de una máquina virtual, los paquetes LLDP y LACP pueden ser un
riesgo para la seguridad. El controlador de la función Intel® virtual bloquea la transmisión de tales
paquetes.
l El ajuste Virtualización de la ficha Avanzado de la hoja de propiedades del Administrador de
dispositivos relativas al adaptador no está disponible si no está instalado el rol Hyper-V.
l Antes de configurar las funciones de Microsoft* Hyper-V, el paquete de actualizaciones de Dell EMC
debe haber instalado los controladores NIC de Intel®. Si la función Microsoft* Hyper-V está configurada
en una partición NIC no admitida en un dispositivo X710 de Intel® antes de usar el paquete de
actualizaciones de Dell EMC para instalar los controladores NIC de Intel®, puede que la instalación del
controlador no se complete. Para realizar la recuperación, debe desinstalar Microsoft* Hyper-V,
desinstalar "Conexiones de red Intel®" de "Programas y características" y usar el paquete de
actualizaciones de Dell EMC para instalar los controladores NIC de Intel®.
Conmutador de máquina virtual
El conmutador de máquina virtual forma parte de la ruta de datos de E/S de la red. Se encuentra entre la NIC física y
las NIC de máquina virtual y direcciona paquetes a la dirección MAC correcta. Al habilitar la descarga de cola de
máquina virtual (VMQ) en Intel® PROSet se habilitará VMQ automáticamente en el conmutador de quina virtual. En
el caso de instalaciones solo de controlador, debe habilitar manualmente VMQ en el conmutador de máquina virtual.
Descarga de la cola de máquina virtual
La habilitación de la descarga de VMQ aumenta el desempeño de recepción y transmisión, ya que el adaptador es
capaz de realizar dichas tareas de forma s rápida que el sistema operativo. La descarga también libera recursos de
CPU. El proceso de filtrado se basa en los filtros de MAC y/o VLAN. Para los dispositivos compatibles, la descarga de
VMQ está habilitada en la partición del host, en la hoja de propiedades del Administrador de dispositivos relativas al
adaptador, en la ficha Opciones avanzadas de Virtualización.
Cada adaptador Intel® Ethernet tiene un grupo de puertos virtuales divididos entre las diferentes funciones, como
descarga de VMQ, SR-IOV, y habilitación de puentes de centro de datos (DCB). Si se aumenta elmero de puertos
virtuales usados para una función, disminuye elmero disponible para otras. En los dispositivos que lo admiten,
activar DCB reduce el grupo disponible para otras funciones a 32.
NOTA: esto no se aplica a los dispositivos basados en los controladores Intel® Ethernet X710 o XL710.
Intel PROSet muestra el número de puertos virtuales disponibles para funciones virtuales en las propiedades de
Virtualización, en la ficha Opciones avanzadas del dispositivo. También permite configurar cómo se distribuyen los
puertos virtuales disponibles entre VMQ y SR-IOV.
Colas múltiples de máquinas virtuales
Con las colas múltiples de máquinas virtuales (VMMQ) se activa el Ajuste de escala en lado de recepción (RSS) para
los puertos virtuales conectados a un puerto físico. Esto permite utilizar RSS con SR-IOV y dentro de una quina
virtual VMQ, y descarga el procesamiento de RSS en el adaptador de red. RSS equilibra el tfico de recepción en
varias CPU o núcleos de CPU. Esta configuración no surte efecto si su sistema tiene una sola unidad de
procesamiento.
Descripción general de SR-IOV
La virtualización de E/S de raíz única (SR-IOV) es una especificación PCI SIG que permite a los dispositivos PCI
Express aparecer como varios dispositivos PCI Express físicos separados. SR-IOV permite compartir con eficacia
dispositivos PCI entre máquinas virtuales (VM). Administra y transporta datos sin el uso de un hipervisor
proporcionando espacio de memoria independiente, interrupciones y flujos DMA para cada máquina virtual.
La arquitectura SR-IOV incluye dos funciones:
l La función física (PF) es una función plena de PCI Express que se puede detectar, administrar y configurar
como cualquier otro dispositivo PCI Express.
l La función virtual (VF) es similar a la PF, pero no se puede configurar y solo tiene la capacidad de transferir
datos de entrada y salida. La VF se asigna a una quina virtual.
NOTAS:
l SR-IOV debe habilitarse en la BIOS.
l Si la SR-IOV no está habilitada en la configuración del sistema F2, la disponibilidad de VPort no
aparece en el cuadro de diálogo Virtualización al instalar Intel PROSet para el Administrador de
dispositivos de Windows. Habilite la SR-IOV en el BIOS del sistema y vuelva a instalar Intel PROSet
para el Administrador de dispositivos de Windows para corregir la visualización.
l Si planea asignar dispositivos directamente a una quina virtual en Linux, debe habilitar la
compatibilidad con la unidad de gestión de memoria de E/S para que SR-IOV funcione correctamente.
Utilice los pametros de arranque del kernel "intel_iommu=on" para placas de sistemas con
procesadores Intel o "amd_iommu=on" para placas de sistemas con procesadores AMD, y "iommu=pt"
para habilitar la compatibilidad con IOMMU. Para obtener la mejor protección de la memoria, utilice
"intel_iommu=on". Para obtener el mejor rendimiento, utilice ambos parámetros ("intel_iommu=on
iommu=pt"). En RedHat y en la mayoría de las des distribuciones de Linux, agregue estos
pametros a la entrada GRUB_CMDLINE_LINUX del archivo de configuración /etc/default/grub. Para
sistemas de arranque en modo UEFI, ejecute grub2-mkconfig -o /etc/grub2-efi.cfg. Para
sistemas de arranque en modo BIOS heredados, ejecute grub2-mkconfig -o
/boot/grub2/grub.cfg. Para agregar estos pametros en las distribuciones de Linux basadas en
SUSE, abra Yast y, a continuación, abra el cargador de arranque y haga clic en la ficha de pametros
del kernel. Agregue los pametros opcionales en el campo de pametro de línea de comandos
opcional del kernel. Esto añade las opciones para cualquiera de los modos de arranque. Es necesario
reiniciar para que los cambios surtan efecto.
FW-LLDP (Firmware-Protocolo de detección de capa de enlace)
Los dispositivos basados en el controlador Intel® Ethernet serie 700 utilizan un agente de protocolo de detección de
capa de enlace (LLDP) que se ejecuta en el firmware. Cuando se está ejecutando, impide que el sistema operativo y
las aplicaciones reciban tráfico LLDP desde el adaptador de red.
l La configuración de FW-LLDP es por puerto.
l El agente FW-LLDP es necesario para que DCB funcione correctamente.
Adaptadores basados en el controlador Intel® Ethernet serie 700
FW-LLDP está habilitado en NVM de forma predeterminada. Para habilitar/deshabilitar el agente FW-LLDP:
l Linux: utilice ethtool para configurar o mostrar el indicador privado disable-fw-lldp.
l FreeBSD: utilice sysctl para configurar o mostrar el indicador fw_lldp.
l ESX: utilice el comando esxcfg-module para configurar u obtener el pametro del módulo LLDP.
l Microsoft Windows: utilice el atributo de agente LLDP en UEFI HII para cambiar la configuración de FW-LLDP.
Nota: Debe activar el atributo "LLDP AGENT" de UEFI HII para aplicar la configuración de FW-LLDP. Si la
opción "LLDP AGENT" se ha deshabilitado en UEFI HII, no pod habilitar FW-LLDP desde el sistema
operativo.
l Debe habilitar el agente LLDP en UEFI HII para utilizar DCB.
Particiones NIC
Particiones de tarjeta de interfaz de red (NIC) (NPar) permite a los administradores de red crear varias particiones
para cada puerto físico en una tarjeta de adaptador de red y establecer diferentes asignaciones de ancho de banda
en cada partición. Para la red y el sistema operativo, cada partición aparece como un puerto físico independiente en el
adaptador. Esto facilita la reducción del número de puertos de conmutación y la complejidad de cableado mientras se
mantiene la segmentación de red y el aislamiento. Además, la asignación de ancho de banda flexible por partición
permite el uso eficiente del enlace.
NPar está disponible en Linux y ESXi, así como en las versiones de Windows Server y Windows Server Core a partir
de 2012 R2.
Los siguientes adaptadores admiten NPar. Tenga en cuenta que NPar admite un máximo de 8 particiones por
controlador.
l Adaptador Intel® Ethernet 25G 2P XXV710
NOTA: los adaptadores 25GbE no son compatibles con NPAR y NPAR-EP en sistemas operativos
VMWare.
l Intel® Ethernet 10G 4P X710/I350 rNDC
l Intel® Ethernet 10G 4P X710-k bNDC
l Intel® Ethernet 10G 4P X710 rNDC
l Intel® Ethernet 10G 2P X710-k bNDC
l Intel® Ethernet 10G X710-k bNDC
l Adaptador de Ethernet de red convergente Intel® X710
l Adaptador de red convergente Intel® X710-T
l Intel® Ethernet Server Adapter X710-DA2 para OCP para servidores
NOTAS:
l Los adaptadores solo admiten NPar en modo NIC (LAN).
l Los siguientes elementos son compatibles únicamente en la primera partición de cada puerto:
l PXE Boot
l iSCSI Boot
l Configuraciones de velocidad y dúplex
l Control de flujo
l Opciones de administración de energía
l SR-IOV
l Procesamiento de NVGRE
l Algunos adaptadores solo admiten Wake on LAN en la primera partición del primer puerto.
l Los límites de recursos de Microsoft Windows pueden afectar almero de puertos que se muestran. Si
tiene varios adaptadores instalados en un sistema y habilita NPar o NParEP en los adaptadores, el
Administrador de dispositivos de Windows podría no mostrar todos los puertos.
l Es posible que el ancho de bandanimo no esté distribuido equitativamente entre las particiones NIC
al cambiar el modo NPAR/NPAR EP. Los valores de ancho de banda mínimo se pueden ajustar
después de cambiar el modo NPAR/NPAR EP.
l La descarga de iSCSI no admite particiones NIC de dispositivos basados en Intel X710. Los
adaptadores X710 muestran incorrectamente un valor "True" para "Compatibilidad con descarga de
iSCSI". Mediante la activación del "modo descarga de iSCSI" de lagina [NIC Partitioning
Configuration] se activa la partición del tfico de almacenamiento de iSCSI.
l La prueba de diagnóstico de bucle de retorno no se admite cuando el dispositivo está en modo NPAR.
l Cuando configure el sistema para un sistema operativo basado en Microsoft Windows, no active el
modo descarga de iSCSI en la configuración de partición para dispositivos Intel® X710, ya sea
directamente en la BIOS a través de HII o mediante una configuración remota como racadm o WSMAN.
l Si tiene NPAR activado, asegúrese de que la configuración avanzada "Perfil de equilibrio de cargas
RSS" está establecida en NUMAScalingStatic.
l NVGRE no se admite cuando el dispositivo está en modo NPAR. Si el dispositivo tiene NPAR activado,
NVGRE (el ajuste de descarga de tareas encapsuladas de la ficha Avanzado del administrador de
dispositivos de Windows) no se admite.
l Con NPAR activado en dispositivos de la serie X700 de controladores Intel® Ethernet, todas las
particiones perderán la conexión de red durante 2-3 segundos mientras se inicializa la partición raíz (la
primera partición del puerto físico).
Modo NParEP
El modo NParEP es una combinación de NPar y PCIe ARI, y aumenta el número máximo de particiones en un
adaptador a 16 por controlador.
Compatibilidad con la plataforma NParEP
Ranura PCI Express
Dell EMC
Plataforma
OCP
Mezz
Ranura NDC de
bastidor
1 2 3 4 5 6 7 8 9 10 11 12 13
C4130
C4140 no no
C6420
R230 no no
R240 no no
R330 no no
R340 no no
R430
R440
R530 no no
Ranura PCI Express
Dell EMC
Plataforma
OCP
Mezz
Ranura NDC de
bastidor
1 2 3 4 5 6 7 8 9 10 11 12 13
R530XD no
R540 no
R630
R640
R730
R730XD
R740
R740XD2 no no
R830
R840
R930
R940
T130 no no no no
T140 no no no no
T330 no no no
T340 no no no no
T430 no no
T440 no
T630 no
T640
Ranura Mezzanine
Dell EMC Plataforma Ranura NDC Blade B C
FC430
FC630
FC830
M630
M630 para VRTX
M640
M640 para VRTX
M830
M830 para VRTX
MX740c
Ranura Mezzanine
Dell EMC Plataforma Ranura NDC Blade B C
MX840c
Las plataformas o ranuras compatibles se indican con "sí". Las plataformas no compatibles se indican con un "no".
Cuando no es aplicable, se indica con celdas en blanco.
Configuración del modo NPar
Configuración de NPar desde el Administrador de inicio
Al iniciar el sistema, pulse la tecla F2 para acceder al menú System Setup (Configuración del sistema). Seleccione
Device Settings (Configuración de dispositivo) de la lista que aparece en System Setup Main Menu (Me principal
de configuración del sistema) y, a continuación, seleccione su adaptador de la lista para acceder al menú de
Configuración de dispositivo. Seleccione Device Level Configuration (Configuración de nivel de dispositivo) en la
lista que aparece en Main Configuration Page (Página principal de configuración). Aparece la configuración de
virtualización en Device Level Configuration (Configuración de nivel de dispositivo).
En la lista desplegable Virtualization Mode (Modo de virtualización) hay cuatro opciones.
l None (Ninguno): el adaptador funciona con normalidad.
l NPar: permite un máximo de 8 particiones en el adaptador. Si selecciona el modo de virtualización NPar, se le
presentará la opción de habilitar el modo NParEP, que ampliará elmero de particiones por adaptador a un
total de 16, emparejando NPar con PCIe ARI.
NOTAS:
l Cuando un adaptador está funcionando en el modo NPar, se limita a 8 particiones en total. Un
adaptador de dos puertos tend cuatro particiones por puerto. Un adaptador de cuatro puertos
tend dos particiones por puerto.
l El modo NParEP solo se puede activar cuando el modo NPar está habilitado.
l Cuando un adaptador está funcionando en el modo NParEP, se limita a 16 particiones en total.
Un adaptador de dos puertos tendrá ocho particiones por puerto. Un adaptador de cuatro
puertos tendrá cuatro particiones por puerto.
l SR-IOV: activa SR-IOV en el puerto.
l NPar+SR-IOV: permite hasta 8 particiones (funciones sicas) para el adaptador y activa SR-IOV.
NOTAS:
l SR-IOV está limitado a la partición raíz de cada puerto.
l Cuando un adaptador se ejecuta en modo NPar, la configuración de virtualización (SR-IOV) se
aplica a todos los puertos del adaptador y a todas las particiones de cada puerto. Los cambios
realizados en la configuración de virtualización en un puerto se aplican a todos los puertos del
adaptador.
Cuando haya terminado la selección, haga clic en el botón Back (Regresar) y regresará a la Main Configuration
Page (Configuración de la página principal). Haga clic en el nuevo elemento, titulado NIC Partitioning Configuration
(Configuración de particiones NIC) en la lista de configuraciones para ir a la página NIC Partitioning Configuration,
donde ve una lista con las particiones NPar (o NParEP) que hay en el adaptador.
Lagina Global Bandwith Allocation (Asignación de ancho de banda global) le permite especificar elnimo y el
máximo de asignación de ancho de banda garantizado para cada partición en un puerto. El ancho de banda TX
mínimo es el ancho de banda de transmisión de datos mínimo garantizado, como porcentaje de la velocidad completa
de enlace de puerto físico, que recibi la partición. El ancho de banda que se concede a la partición no caerá nunca
por debajo del nivel que se especifica aquí. El rango de valores lido es:
De 1 a (100 menos (número de particiones en el puerto físico) más 1).
Por ejemplo, si un puerto físico tiene 4 particiones, el rango sería:
De 1 a ((100 - 4) + 1 = 97)
El porcentaje de ancho de banda máximo representa el ancho de banda de transmisión máximo asignado a la
partición como porcentaje de la velocidad xima de enlace del puerto físico. El rango de valores aceptado es de 0-
100. El valor puede utilizarse como limitador, en caso de que elija que una función determinada no pueda consumir el
100 % del ancho de banda de un puerto (si estuviera disponible). La suma de todos los valores de ancho de banda
máximo no está limitada, pues no se puede utilizar nunca más del 100 % del ancho de banda de un puerto.
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda
máximo se establece automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de banda mínimo a través del
iDRAC con el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para
todas las particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos
pueden ser diferentes de los valores que supuestamente se habían establecido. Para evitar este
problema, establezca los valores de porcentaje de ancho de bandanimo en todas las particiones
mediante el uso de un único trabajo, y asegúrese de que la suma de los valores es 100.
Haga clic en el botón Back (Regresar) cuando haya terminado de realizar la configuración de la asignación de ancho
de banda para volver a lagina NIC Partitioning Configuration. Desde allí puede hacer clic en uno de los elementos
de la lista PartitionnConfiguration (Configuración de la partición n) en Global Bandwidth Allocation (Asignación de
ancho de banda global). Aparece una página de información de configuración de particiones en un puerto en
particular. Puede ver el modo de NIC, PCI; ID del dispositivo, Dirección PCI, la dirección MAC y la dirección MAC
virtual (si procede) para todas las particiones de cualquier puerto al hacer clic en los elementos de la lista de
configuración de la partición.
Cuando haya finalizado la configuración de todas las particiones de un puerto, vuelva a lagina de configuración
principal, haga clic en el botón Finish (Finalizar) y luego haga clic en el botón OK (Aceptar) del cuadro de diálogo
Success (Saving Changes) (Correcto (Guardando los cambios)).
Repita el proceso de configuración de partición de todos los puertos de su adaptador.
NOTA: una vez que NPar se ha habilitado en una partición de un puerto, aparece habilitado para todas las
particiones posteriores en ese puerto. Si esa primera configuración de NPar incluía habilitar el modo NParEP,
el modo NParEP también aparece habilitado en todas las particiones posteriores en ese puerto.
Cuando haya configurado todas las particiones de todos los puertos en todos los adaptadores del servidor, vuelva al
menú principal de configuración del sistema y haga clic en el botón Finish (Finalizar). Luego, haga clic en Yes (Sí)
para salir del menú de configuración del sistema y reinicie el sistema con el fin de aplicar los cambios.
Una vez que el sistema haya completado el proceso de arranque, NPar permanece habilitado hasta que lo
deshabilite explícitamente desactivando la opción durante una secuencia de arranque posterior.
Configuración de NPar en Microsoft Windows
Es posible configurar una partición de puerto de adaptador en Windows como cualquier puerto de adaptador. Ejecute
el Administrador de dispositivos, seleccione el dispositivo y abra las hojas de propiedades de la partición para
configurar las opciones.
NOTA: En Microsoft* Windows Server* 2019 (y versiones posteriores), debe utilizar Intel® PROSet para
Windows PowerShell para configurar NPar.
Activación de NPar
NPar se activa y desactiva desde la ficha Advanced (Avanzado) en la hoja de propiedades del Administrador de
dispositivos.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "NIC Partitioning" DisplayValue "NPAR"
Opciones de arranque
En la ficha Boot Options (Opciones de arranque), se le informa de que el dispositivo está en modo NPar y que los
ajustes antiguos de protocolo de prearranque solo se pueden configurar en la partición raíz. Al hacer clic en el botón
Properties (Propiedades) se iniciará la hoja de propiedades de la partición raíz en el adaptador.
Para establecer esta opción mediante Windows PowerShell, busque la primera partición mediante el cmdlet Get-
IntelNetAdapter. Una vez que conozca el puerto con elmero de partición 0, utilice ese nombre de puerto en la
utilidad Bootutil para la configuración de opciones de arranque.
Opciones de administración de energía
La configuración de administración de energía solo se permite en la primera partición de cada puerto físico. Si
selecciona la ficha Power Management (Administración de energía) en las hojas de propiedades del Administrador
de dispositivos mientras se selecciona cualquier partición que no sea la primera, se le presentará texto en el diálogo
de administración de energía que indicará que no se pueden configurar los ajustes de administración de energía en la
conexión actual. Al hacer clic en el botón Properties (Propiedades) se iniciará la hoja de propiedades de la partición
raíz en el adaptador.
NOTA: las opciones de arranque y la configuración de administración de energía solo están disponibles en la
partición raíz de cada puerto físico.
Para establecer esta opción mediante Windows PowerShell, busque la primera partición mediante el cmdlet Get-
IntelNetAdapter. Una vez que conozca el puerto con elmero de partición 0, utilice ese nombre de puerto con los
cmdlets Get-IntelNetAdapterSetting y Set-IntelNetAdapterSetting.
Control de flujo
Puede cambiar la configuración del control de flujo para cualquier partición en un puerto determinado. No obstante,
cuando se realiza un cambio en la configuración de control de flujo de una partición asociada a un puerto en un
adaptador que funciona en modo NPar, el nuevo valor se aplicará a todas las particiones de ese puerto concreto.
El control de flujo se alcanza al seleccionar la ficha Advanced (Avanzado) de Intel PROset y, a continuación,
seleccionar el botón Properties (Propiedades) y Flow Control (Control de flujo) de la lista de opciones de la lista
Settings (Ajustes) del diálogo que se muestra.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo,
Set-IntelNetAdapterSetting -Name "<nombre del adaptador>" -DisplayName "Control de flujo" -DisplayValue
“Negociación automática”.
Identificación de las asociaciones de puerto
El diálogo Hardware Information (Información del hardware) en las hojas de propiedades de Intel PROSet facilita la
identificación del puerto físico asociado a una partición concreta. Hay un botón Identify Adapter (Identificar
adaptador) en la ficha Link Speed (Velocidad de enlace) y al hacer clic en ese botón parpadea el indicador
luminoso ACK/Link en el puerto asociado a la partición activa.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Test-IntelNetAdapterSetting. Por ejemplo,
Test-IntelNetIdentifyAdapter -Name "<nombre del adaptador>" -Seconds 100.
Configuración de ancho de banda de partición
El diálogo Bandwidth Configuration (Configuración de ancho de banda) proporciona una indicación del puerto para el
que se están realizando ajustes en la actualidad, sobre una lista de las particiones de ese puerto y sus asignaciones
de ancho de banda actuales (Min%, Max%). La configuración del ancho de banda de la partición se alcanza al hacer
clic en el botón Bandwidth Configuration (Configuración del Ancho de Banda) en la ficha Link Speed (Velocidad de
enlace) de las hojas de propiedades de Intel PROSet.
El ancho de banda asignado a cada partición en el puerto nunca cae por debajo del valor definido en Min%. Para
todas las particiones en el mismo puerto físico, el porcentaje de ancho de bandanimo para todas las particiones
debe establecerse en cero, o la suma de todos los porcentajes mínimos de ancho de banda en cada partición debe
ser igual a 100, donde el rango de porcentajes de ancho de bandanimos está entre 1 y (100-n)%, siendo n el
mero de particiones de un puerto en particular. Por ejemplo, en un puerto con cuatro particiones definidas:
P1=0
P2=0
P3=0
P4=0
Válida
P1=10
P2=20
P3=30
P4=40
Válida
P1=20
P2=80
P3=0
P4=0
NO lida
Los valores lidos para Max% son el valor de "Min%" de esa partición hasta "100". Por ejemplo, si el valor de Min%
para la Partición 1 es 50%, el rango de Max% de esa partición es "50"-"100". Si hace que el valor Max% de una
partición supere el 100% incrementando el valor con el control demero, se muestra un error y se reduce Max%
hasta 100 %. La suma de los valores Max% de todas las particiones de un puerto concreto no tiene límites.
Para cambiar el valor de Min% o Max%, seleccione una partición en la lista que se muestra y utilice las flechas hacia
arriba o hacia abajo en “Selected Partition Bandwidth Percentages” (Porcentajes de ancho de banda de la partición
seleccionada).
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda
máximo se establece automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de banda mínimo a través del
iDRAC con el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para
todas las particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos
pueden ser diferentes de los valores que supuestamente se habían establecido. Para evitar este
problema, establezca los valores de porcentaje de ancho de bandanimo en todas las particiones
mediante el uso de un único trabajo, y asegúrese de que la suma de los valores es 100.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterMaximumBandwidthPercentage -Name "Adaptador de red convergente Intel® Ethernet X710" -
MaxBwPercent 100
Set-IntelNetAdapterMinimumBandwidthPercentage -Name "Adaptador de red convergente Intel® Ethernet X710" -
Partition1 25 -Partition2 25 -Partition3 25 -Partition4 25
Configuraciones de velocidad y dúplex
La configuración de velocidad y dúplex para un puerto en particular puede cambiarse desde cualquier partición
asociada a ese puerto. Sin embargo, como todas las particiones de un puerto concreto en un adaptador que funciona
en modo NPar comparten el mismo módulo que se conecta al puerto, el cambio de la configuración de velocidad y
plex se traducirá en que el nuevo valor se establezca en todas las particiones en el mismo puerto físico.
Cambiar la configuración de velocidad y dúplex de un puerto en un adaptador que funciona en modo NPar ha que
se vuelva a cargar el controlador de cada partición asociada a ese puerto. Esto puede producir unardida
momentánea de enlace.
Diagnósticos en línea
Se pueden realizar pruebas en línea en el modo NPar sin perder el enlace del adaptador. Las siguientes pruebas de
diagnóstico están disponibles para todas las particiones de un puerto determinado, mientras un adaptador funcione
en modo NPar:
l EEPROM
l Registro
l Integridad de NVM
l Conexión
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Test-IntelNetAdapterSetting. Por ejemplo,
Test-IntelNetDiagnostics -Name "<nombre del adaptador>" -Test Hardware.
Diagnósticos sin conexión
No se admiten diagsticos sin conexión mientras el adaptador funcione en modo NPar. Las pruebas de bucle de
retorno y cable sin conexión no están permitidas en modo NPar.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Test-IntelNetAdapterSetting. Por ejemplo,
Test-IntelNetDiagnostics -Name "<nombre del adaptador>" -Test Hardware.
Virtualización
La configuración de la virtualización (colas de quina virtual y SR-IOV) se alcanza a través de las hojas de
propiedades de Intel PROSet, al seleccionar la ficha Avanzado y seleccionar "Virtualización" de la lista Ajustes.
Cuando un adaptador está funcionando en modo NPar, solo la primera partición de cada puerto físico puede estar
configurada con la configuración de virtualización.
NOTA: Microsoft* Hyper-V* debe estar instalado en el sistema a fin de que la configuración de virtualización
esté disponible. Si Hyper-V* no está instalado, la ficha Virtualización de PROSet no aparecerá.
Para establecer esta opción mediante Windows PowerShell, busque la primera partición mediante el cmdlet Get-
IntelNetAdapter. Una vez que conozca el puerto con elmero de partición 0, utilice ese nombre de puerto con los
cmdlets Get-IntelNetAdapterSetting y Set-IntelNetAdapterSetting.
Configuración de NPAR en Linux
En los adaptadores Intel® basados en la serie 710 que lo admiten, puede configurar varias funciones en cada puerto
sico. Configure estas funciones mediante la Configuración del sistema/BIOS.
El ancho de banda TX mínimo es el ancho de banda de transmisión de datos mínimo garantizado, como porcentaje de
la velocidad completa de enlace de puerto físico, que recibirá la partición. El ancho de banda que se concede a la
partición no caerá nunca por debajo del nivel que se especifica aquí.
El rango de los valores mínimos de ancho de banda es:
De 1 a (100 menos (número de particiones en el puerto físico) más 1).
Por ejemplo, si un puerto físico tiene 4 particiones, el rango sería:
De 1 a ((100 - 4) + 1 = 97)
El porcentaje de ancho de banda máximo representa el ancho de banda de transmisión máximo asignado a la
partición como porcentaje de la velocidad xima de enlace del puerto físico. El rango de valores válido es 1-100. El
valor puede utilizarse como limitador, en caso de que elija que una función determinada no pueda consumir el 100 %
del ancho de banda de un puerto (si estuviera disponible). La suma de todos los valores de ancho de banda máximo
no está limitada, pues no se puede utilizar nunca más del 100 % del ancho de banda de un puerto.
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda
máximo se establece automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de banda mínimo a través del
iDRAC con el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para
todas las particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos
pueden ser diferentes de los valores que supuestamente se habían establecido. Para evitar este
problema, establezca los valores de porcentaje de ancho de bandanimo en todas las particiones
mediante el uso de un único trabajo, y asegúrese de que la suma de los valores es 100.
Una vez finalizada la configuración inicial, puede establecer asignaciones de ancho de banda diferentes en cada
función de la manera siguiente:
1. Cree un directorio nuevo denominado /config
2. Edite etc/fstab para que incluya:
configfs /config configfs defaults
3. Cargue (o recargue) el controlador i40e
4. Monte /config
5. Cree un directorio nuevo bajo config para cada partición en la que desee configurar el ancho de banda.
Aparecen tres archivos en el directorio config/partition:
- max_bw
- min_bw
- commit
Lea en max_bw para visualizar el ajuste máximo actual de ancho de banda.
Escriba en max_bw para establecer el ancho de banda máximo de esta función.
Lea en min_bw para visualizar el ajustenimo actual de ancho de banda.
Escriba en min_bw para establecer el ancho de bandanimo de esta función.
Escriba '1' en commit para guardar los cambios.
NOTAS:
l commit es de solo escritura. Si intenta leerlo, recibi un error.
l La escritura en commit solo se admite en la primera función de un puerto determinado. Si escribe en
una función posterior, recibi un error.
l No se admite superar el ancho de bandanimo. El NVM del dispositivo subyacente establecerá el
ancho de bandanimo en los valores admitidos de una manera indeterminada. Elimine todos los
directorios que estén bajo config y vuelva a cargarlos para ver cuáles son los valores reales.
l Para descargar el controlador, primero debe eliminar los directorios creados anteriormente en el paso 5.
Ejemplo de establecer el ancho de bandanimo y ximo (suponiendo que haya cuatro funciones en el puerto eth6-
eth9 y que eth6 es la primera función del puerto):
# mkdir /config/eth6
# mkdir /config/eth7
# mkdir /config/eth8
# mkdir /config/eth9
# echo 50 > /config/eth6/min_bw
# echo 100 > /config/eth6/max_bw
# echo 20 > /config/eth7/min_bw
# echo 100 > /config/eth7/max_bw
# echo 20 > /config/eth8/min_bw
# echo 100 > /config/eth8/max_bw
# echo 10 > /config/eth9/min_bw
# echo 25 > /config/eth9/max_bw
# echo 1 > /config/eth6/commit
Salir del modo NPar
El modo NPar se desactiva en el menú de configuración del sistema durante el reinicio.
Reinicie el sistema y pulse la tecla F2 para acceder al menú System Setup (Configuración del sistema). Seleccione
Device Settings (Configuración de dispositivo) de la lista que aparece en System Setup Main Menu (Me principal
de configuración del sistema) y, a continuación, seleccione su adaptador de la lista para acceder al menú de
Configuración de dispositivo. Seleccione Device Level Configuration (Configuración de nivel de dispositivo) en la
lista que aparece en Main Configuration Page (Página principal de configuración). Aparece la configuración de
virtualización en Device Level Configuration (Configuración de nivel de dispositivo).
En la lista Virtualization Mode (Modo de virtualización), seleccione "None" (Ninguno). A continuación, haga clic en el
botón Back (Regresar), que le devolve a lagina de configuración principal. En ella, haga clic en el botón Finish
(Finalizar) para guardar el cambio y reiniciar el sistema. Cuando el sistema acabe de reiniciarse, NPar ya no estará
activo.
NOTA: cuando NPar ha sido deshabilitado y el sistema completa el reinicio, también se deshabilitan otros
ajustes relacionados con la virtualización, como NParEP o SR-IOV.
Instalación del adaptador
Seleccionar la ranura correcta
Una ranura PCI-Express x4, x8 o x16 abierta; en función de su adaptador.
NOTA: algunos sistemas cuentan con ranuras físicas PCI Express x8 que admiten velocidades menores.
Consulte el manual del sistema para identificar la ranura.
Insertar el adaptador en el equipo
1. Si su equipo admite conexión en funcionamiento PCI, consulte la documentación del equipo para obtener
instrucciones de instalación específicas.
2. Apague y desconecte el equipo. A continuación, retire la cubierta.
PRECAUCIÓN: apague y desconecte la fuente de alimentación antes de retirar la cubierta del equipo.
Si no lo hace, puede ser peligroso y ades puede dañar el adaptador o el equipo.
3. Retire el soporte de cubierta de una ranura disponible.
4. Introduzca el adaptador en la ranura hasta que encaje correctamente. Puede instalar un adaptador PCI
Express más pequo en una ranura PCI Express más grande.
PRECAUCIÓN: algunos adaptadores PCI Express pueden tener un conector corto, lo que los
hace más fgiles que los adaptadores PCI. Una fuerza excesiva podría romper el conector.
Tenga cuidado al presionar la placa para introducirla en la ranura.
5. Asegure la abrazadera del adaptador con un tornillo si es necesario.
6. Vuelva a colocar la cubierta y conecte el cable de alimentación.
7. Encienda el equipo.
Conexión de los cables de red
Conecte el cable de red adecuado tal como se describe en las secciones siguientes.
Conexn del cable de red RJ-45
Conecte el cable de red RJ-45 tal y como se muestra en la ilustración:
La siguiente tabla muestra las longitudes máximas para cada tipo de cable a una velocidad de transmisión
determinada.
Categoría 5 Categoría 6 Categoría 6a Categoría 7
1 Gbps 100 m 100 m 100 m 100 m
10 Gbps (no disponible) 55 m 100 m 100 m
25 Gbps (no disponible) (no disponible) (no disponible) 50 m
40 Gbps (no disponible) (no disponible) (no disponible) 50 m
ADVERTENCIA: si utiliza cables con menos de 4 pares, deberá configurar manualmente la velocidad y el
plex del adaptador y del interlocutor de enlace. Además, con cables de 2 y 3 pares, el adaptador
solamente pod alcanzar velocidades de hasta 100 Mbps.
En todos los casos:
l El adaptador debe estar conectado a un interlocutor de enlace compatible, de preferencia que se haya
establecido para negociar automáticamente la velocidad y elplex de los adaptadores Intel Gigabit.
l Los adaptadores Intel Gigabit y 10 Gigabit para servidor que utilizan conexiones de cobre se adaptan
automáticamente a las conexiones MDI o MDI-X. La función de adaptación automática a MDI-X de los
adaptadores Intel Gigabit de cable de cobre permite conectar directamente dos adaptadores sin necesidad de
utilizar un cable de cruzamiento.
Módulos SFP+ y QSFP+ admitidos
Los adaptadores Intel® Ethernet para servidores solo admiten la óptica de Intel y/o todos los cables de conexión
directa de limitación activa y pasiva que cumplen las especificaciones SFF-8431 v4.1 y SFF-8472 v10.4.
Especificaciones de cableado del transceptor SR
Longitud de ondaser: 850 nanómetros (no visible).
Tipo de conector: LC o SC.
Tipo de cable: fibra multimodo con un diámetro de núcleo de 62,5 µm.
l Longitud máxima de cable a 1 Gbps: 275 metros.
l Longitud máxima de cable a 10 Gbps (o superior): 33 metros.
Tipo de cable: fibra multimodo con un diámetro de núcleo de 50 µm.
l Longitud máxima de cable a 1 Gbps: 550 metros.
l Longitud máxima de cable a 10 Gbps (o superior): 300 metros.
Especificaciones de cableado del transceptor LR
Longitud de ondaser: 1310 nanómetros (no visible).
Tipo de conector: LC.
Tipo de cable: fibra monomodo con un diámetro decleo de 9,0 µm.
l Longitud máxima del cable: 10 kilómetros.
La mayoría de los adaptadores Intel® Ethernet para servidores son compatibles con los siguientes módulos:
NOTA: los dispositivos Intel® basados en la serie 710 no admiten módulos de terceros.
Proveedor Tipo Números de pieza Adaptadores
compatibles
Dell EMC 1G/10G SFP+ SR de doble velocidad (con
palanca de bloqueo)
Y3KJN, XYD50,
C5RNH
1
, WTRD1
1
X520, X710
2
,
XXV710
Dell EMC 10G/25G SFP28 de doble velocidad M14MK XXV710
Dell EMC QSFP+ F10 pasivo tipo pulpo (QSFP+ a 4xSFP+) P4YPY, TCPM2, JNPF8,
27GG5, P8T4W
X520, X710
2
Dell EMC Transceptor de SFP+ a 1000BASET 8T47V, XTY28 X710
2
Dell EMC SFP+ LR Optic 60F4J, RN84N
X710
2
Dell EMC Cable óptico activo (AOC) YJF03, P9GND, T1KCN,
1DXKP, MT7R2, K0T7R,
W5G04
X710
2
, XXV710
Dell EMC SFP28 óptico P7D7R, HHHHC,
68X15, OYR96, W4GPP
XXV710
Dell EMC SFP+ F10 pasivo C6Y7M, V250M,
5CWK6, 53HVN, 358VV,
MV799
XXV710
Dell EMC SFP28 pasivo 2JVDD, D0R73, VXFJY,
9X8JP
XXV710
Dell EMC SFP28 activo 3YWG7, 5CMT2,
RCVP5, X5DH4
XXV710
Dell EMC QSFP28 F10 pasivo tipo pulpo (QSFP+ a
4xSFP28)
26FN3, YFNDD, 7R9N9 XXV710
Dell EMC Cables multiconector pasivos QSFP28 8R4VM, 7VN5T, D9YM8 XXV710
Dell EMC 1G/10G/40G QSFP+ SR DE TRIPLE VELOCIDAD
(con palanca de bloqueo) (1G y 10G no se
admiten en XL710)
9GCCD, 7TCDN,
5NP8R, FC6KV, J90VN
XL710
1
No se admite en los adaptadores basados en el controlador X520 de Intel®.
2
El Intel® Ethernet Server Adapter X710-DA2 para servidores para OCP solo es compatible con los módulos incluidos
en la tabla siguiente:
El InteEthernet Server Adapter X710-DA2 para servidores para OCP solo es compatible con los módulos
siguientes:
Proveedor Tipo Números de pieza
Dell EMC SFP+ SR High Temp Optics N8TDR
Dell EMC QSFP+ F10 pasivo tipo pulpo TCPM2, 27GG5, P8T4W
LOS MÓDULOS Y CABLES ÓPTICOS DE OTRAS EMPRESAS A LOS QUE SE HA HECHO REFERENCIA
ANTERIORMENTE SE HAN INCLUIDO SOLO CON EL FIN DE RESALTAR LAS ESPECIFICACIONES Y
COMPATIBILIDAD POTENCIAL DE PRODUCTOS DE OTRAS EMPRESAS Y NO SON RECOMENDACIONES, APOYO
NI PATROCINIO POR PARTE DE INTEL DE NINGÚN PRODUCTO DE OTRAS EMPRESAS. INTEL NO RESPALDA NI
PROMOCIONA PRODUCTOS FABRICADOS POR OTRAS EMPRESAS, Y LA REFERENCIA A LOS MISMOS SE
PROPORCIONA ÚNICAMENTE PARA COMPARTIR INFORMACIÓN RELATIVA A DETERMINADOS MÓDULOS Y
CABLES ÓPTICOS CON LAS ESPECIFICACIONES ANTEDICHAS. PUEDE QUE HAYA OTROS FABRICANTES O
PROVEEDORES QUE PRODUZCAN O SUMINISTRENDULOS Y CABLES ÓPTICOS CON DESCRIPCIONES
SIMILARES O COINCIDENTES. LOS CLIENTES DEBEN UTILIZAR SU PROPIO CRITERIO Y DILIGENCIA PARA
COMPRARDULOS Y CABLES ÓPTICOS DE LA EMPRESA QUE ELIJAN. LOS CLIENTES SON LOS ÚNICOS
RESPONSABLES DE VALORAR LA ADECUACIÓN DEL PRODUCTO Y/O DE LOS DISPOSITIVOS, ASÍ COMO DE LA
SELECCN DEL PROVEEDOR PARA COMPRAR CUALQUIER PRODUCTO. LOS MÓDULOS Y CABLES ÓPTICOS
A LOS QUE SE HA HECHO REFERENCIA ANTERIORMENTE NO TIENEN GARANTÍA NI SOPORTE DE INTEL. INTEL
NO ASUME NINGUNA RESPONSABILIDAD Y ESTÁ EXENTO DE CUALQUIER GARANTÍA EXPRESA O IMPLÍCITA
RELATIVA A LA VENTA Y/O USO DE ESTOS PRODUCTOS DE OTRAS EMPRESAS O LA SELECCN DEL
PROVEEDOR REALIZADA POR LOS CLIENTES.
Conexn del cable de conexn directa
Introduzca el cable de red de conexión directa según se ilustra a continuación.
Tipo de cables:
l 40 Gigabit Ethernet por cable SFP+ de conexión directa (Biaxial)
l La longitud máxima es de 7 metros.
l 25 Gigabit Ethernet por cable SFP28 de conexión directa (Biaxial)
l La longitud máxima es de 5 metros.
l Para un rendimiento óptimo, debe utilizar CA-25G-L con RS-FEC y 25GBASE-CR
l 10 Gigabit Ethernet por cable SFP+ de conexión directa (Biaxial)
l La longitud máxima es de 10 metros.
Instalación de una tarjeta Mezzanine en el servidor de hoja
Consulte la documentación del servidor para obtener instrucciones detalladas sobre cómo instalar una tarjeta
Mezzanine.
1. Apague el servidor de hoja, extráigalo del chasis y quítele la cubierta.
ADVERTENCIA: si no apaga el servidor de hoja, usted podría correr peligro y la tarjeta o el
servidor podrían resultar dañados.
2. Levante la palanca de bloqueo e inserte la tarjeta en un zócalo de tarjeta Mezzanine compatible disponible.
Empuje la tarjeta en el calo hasta que quede bien asentada.
NOTA: debe haber presente un conmutador o un módulo de paso en el mismo tejido que la tarjeta del
chasis para proporcionar una conexión física. Por ejemplo, si la tarjeta Mezzanine se inserta en el tejido
B, debe haber también presente un conmutador en el tejido B del chasis.
3. Repita el paso 2 con cada tarjeta que desee instalar.
4. Baje la palanca de bloqueo hasta que encaje sobre la tarjeta o tarjetas.
5. Vuelva a colocar la cubierta del servidor de hoja y vuelva a insertar éste en el chasis.
6. Encienda el equipo.
Instalación de una tarjeta dependiente de red en un servidor
Consulte la documentación de su servidor para ver instrucciones detalladas sobre mo instalar un bNDC o rNDC.
1. Desactive el servidor y retire su cubierta.
ADVERTENCIA: si no apaga el servidor, podría correr peligro y la tarjeta o el servidor podrían
resultar dañados.
2. Localice el conector de la tarjeta dependiente de red de su servidor. Consulte la documentación del servidor
para más detalles.
3. Inserte la tarjeta dependiente de red en el conector.
4. Apriete los tornillos de la tarjeta dependiente de red para fijarla en su sitio.
5. Sustituya la cubierta del servidor.
Instalación y configuración del software y los
controladores de Microsoft* Windows*
Instalación de los controladores y el software de Windows
NOTA: para instalar o desinstalar satisfactoriamente los controladores o el software, debe contar con privilegios
administrativos en el equipo en el que se va a llevar a cabo el proceso.
Instalación de los controladores
NOTAS:
l Esta instalación actualiza los controladores de todos los adaptadores de red Intel® compatibles de su
sistema.
l La función Revertir al controlador anterior de Windows Server (disponible en la ficha Controlador del
cuadro de diálogo de propiedades del adaptador) no funcionará correctamente si está presente en el
sistema un equipo de adaptadores o Intel PROSet. Antes de utilizar la función Revertir al controlador
anterior, elimine cualquier equipo. A continuación, elimine Intel PROSet mediante la opción Programas
y características del Panel de control de Windows. Consulte Instalación de Intel PROSet para obtener
más información sobre Intel PROSet.
l No se puede utilizar Microsoft Windows Update para actualizar o cambiar a una versión inferior los
controladores de la red Ethernet. Descargue el paquete de controladores más reciente del sitio web de
asistencia.
Antes de instalar o actualizar los controladores, inserte los adaptadores en el equipo y conecte el cable de red. Si
Windows detecta el adaptador nuevo, intenta encontrar un controlador de Windows aceptable que ya esté instalado
con el sistema operativo.
Si lo encuentra, el controlador se instala sin intervención del usuario. Si Windows no encuentra el controlador,
aparece la ventana del asistente de detección de nuevo hardware.
Independientemente de si Windows encuentra el controlador, se recomienda seguir el procedimiento que se indica a
continuación para instalar el controlador. Los controladores de todos los adaptadores Intel compatibles con esta
versión de software están instalados.
1. Descargue los controladores más recientes desde el sitio web de asistencia y transfiéralos al sistema.
2. Si se muestra la pantalla del asistente de detección de nuevo hardware, haga clic en Cancel (Cancelar).
3. Haga doble clic en el archivo descargado.
4. Seleccione Install (Instalar) en la pantalla del paquete de actualizaciones de Dell.
5. Siga las instrucciones del asistente de instalación. Asegúrese de seleccionar Intel PROSet para la instalación.
NOTA: asegúrese de seleccionar la opción de instalación "iSCSI using Data Center Bridging" (iSCSI con
puentes de centro de datos) para sistemas que tienen un dispositivo preparado para NPAR instalado.
Sintaxis del paquete de actualización de Dell EMC (DUP)
El paquete de actualización de Dell EMC (DUP) es un paquete ejecutable que actualiza los controladores de red en el
sistema.
NOTAS:
l Si está instalando un controlador en un sistema con adaptadores Intel existentes, aserese de
actualizar todos los adaptadores y puertos con el mismo controlador y el software Intel® PROSet. Esto
asegurará que todos los adaptadores funcionen correctamente.
Sintaxis
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe [/<option1>[=<value1>]] [/<option2>[=<value2>]]...
Descripciones de las opciones de la línea de comandos
Ninguna Si no se especifican opciones de línea de comandos, el paquete le guia a tras del proceso de
instalación.
/? o /h Muestra la información de uso del paquete de actualización.
/s Suprime todas las interfaces gficas de usuario del paquete de actualización.
/i Realiza una nueva instalación de los controladores incluidos en el paquete de actualización.
NOTA: se requiere la opción /s
/e=<path> Extrae todo el paquete de actualización en la carpeta definida en <path>.
NOTA: se requiere la opción /s
/drivers=<path> Extrae solo los componentes del controlador del paquete de actualización en la carpeta definida
en <path>.
NOTA: se requiere la opción /s
/driveronly Instala o actualiza solo los componentes del controlador del paquete de actualización.
NOTA: se requiere la opción /s
/passthrough (Avanzado) Envía todo el texto que hay desps de la opción /passthrough directamente al
software de instalación del proveedor del paquete de actualización. Este modo suprime cualquier
interfaz gráfica de usuario proporcionada, pero no necesariamente las del software del proveedor.
/capabilities (Avanzado) Devuelve una descripción codificada de las funciones compatibles de este paquete
de actualización.
NOTA: se requiere la opción /s
/l=<path> Define una ruta de acceso específica para el archivo de registro del paquete de actualización.
NOTA: esta opción NO se puede utilizar en combinación con /passthrough ni /capabilities
/f Reemplaza un error de dependencia de software devuelto desde el paquete de actualización.
NOTA: requiere la opción /s y NO se puede utilizar en combinación con /passthrough ni
/capabilities
Ejemplos
Actualizar el sistema en modo silencioso
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s
Nueva instalación en modo silencioso
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /i
Extraer el contenido de la actualización en la carpeta C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /e=C:\mydir
Extraer los componentes del controlador en la carpeta C:\mydir
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /drivers=C:\mydir
Instalar solo los componentes del controlador
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /driveronly
Cambiar la ubicación del registro predeterminada a C:\my path with spaces\log.txt
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /l="C:\my path with spaces\log.txt"
Actualizar de manera forzosa para continuar, incluso con errores de cualificación de software
Network_Driver_XXXXX_WN64_XX.X.X_A00.exe /s /f
Cambiar los controladores a una versión anterior
Puede utilizar las opciones /s y /f para cambiar los controladores a una versión anterior. Por ejemplo, si tiene cargados
los controladores 17.0.0 y desea cambiarlos a la versión 16.5.0, escriba lo siguiente:
Network_Driver_XXXXX_WN64_16.5.0_A00.exe /s /f
Guardar y restaurar la configuración de un adaptador
La herramienta de línea de comandos para guardar y restaurar permite copiar la configuración actual del adaptador
en un archivo independiente (por ejemplo, en una unidad USB) como medida de seguridad. En el caso de que ocurra
un fallo del disco duro, puede recuperar la mayoría de las configuraciones anteriores.
La recuperación de las opciones de configuración de red solo puede realizarse en el mismo sistema (con la misma
configuración) donde se reali la operación de guardar. Se puede utilizar el archivo donde se haya guardado la
configuración para restaurar la configuración del adaptador después de una actualización del sistema operativo. Sin
embargo, es posible que no se restauren todos los ajustes de configuración del adaptador en función de las funciones
admitidas por el nuevo sistema operativo o software de configuración del adaptador.
NOTAS:
l Solo se guarda la configuración del adaptador. El controlador del adaptador no se guarda.
l Restaure mediante la secuencia de comandos sólo una vez. Si restaura varias veces podría ocasionar
una configuración inestable.
l Intel® PROSet debe estar instalado para que funcione el script SaveRestore.ps1.
l Para los sistemas que funcionan con un sistema operativo de 64 bits, aserese de ejecutar la versión
de 64 bits de Windows PowerShell, no la versión de 32 bits (x86), cuando ejecute el script
SaveRestore.ps1.
Sintaxis de la nea de comandos
SaveRestore.ps1 –Action save|restore [-ConfigPath] [-BDF]
SaveRestore.ps1 tiene las siguientes opciones de la línea de comandos:
Opción Descripción
-Action Requerido. Valores válidos: save | restore.
La opción save guarda la configuración del adaptador que ha cambiado respecto a la configuración
predeterminada. Cuando se restaura con el archivo resultante, se asume que cualquier configuración
no contenida en el archivo es la predeterminada.
La opción restore restaura la configuración.
-ConfigPath Opcional. Especifica la ruta y el nombre de archivo del archivo principal para guardar la configuración.
Si no se especifica, es la ruta y el nombre de archivo predeterminado del script (saved_config.txt).
-BDF Opcional. Los nombres de archivo de configuración predeterminados son saved_config.txt y Saved_
StaticIP.txt.
Si especifica -BDF durante una restauración, el script intenta restaurar la configuración según los
valores de PCI BUS:Dispositivo:Función:Segmento para la configuración guardada. Si ha eliminado,
agregado o trasladado una NIC a una ranura diferente, esto puede dar como resultado que el script
aplique la configuración guardada a un dispositivo distinto.
NOTAS:
l Si el sistema de restauración no es intico al sistema guardado, el script no pod restaurar la
configuración cuando se especifique la opción -BDF.
l Los dispositivos de función virtual no admiten la opción -BDF.
l Si ha utilizado Windows para configurar los porcentajes de ancho de banda máximos y
mínimos de NPar, debe especificar /bdf durante las operaciones de guardado y restauración
para mantener esa configuración.
Ejemplos
Ejemplo de Guardar (Save)
Para guardar los ajustes del adaptador a un archivo en un dispositivo de medios extraíble, haga lo siguiente.
1. Abra un indicador de Windows PowerShell.
2. Vaya al directorio donde se encuentre SaveRestore.ps1 (por lo general, c:\Archivos de programa\Intel\Wired
Networking\PROSET).
3. Escriba lo siguiente:
SaveRestore.ps1 –Action Save –ConfigPath e:\settings.txt
Ejemplo de Restaurar (Restore)
Para restaurar los ajustes del adaptador desde un archivo en un dispositivo de medios extraíble, haga lo siguiente:
1. Abra un indicador de Windows PowerShell.
2. Vaya al directorio donde se encuentre SaveRestore.ps1 (por lo general, c:\Archivos de programa\Intel\Wired
Networking\PROSET).
3. Escriba lo siguiente:
SaveRestore.ps1 –Action RestoreConfigPath e:\settings.txt
Configuración de las funciones del dispositivo
Configuración con Intel
®
PROSet para el Administrador de dispositivos de
Windows*
Utilice las fichas adicionales del Administrador de dispositivos de Windows que se describen a continuación para
configurar las características del adaptador Intel Ethernet.
NOTA: Intel® PROSet para el Administrador de dispositivos de Windows no está disponible en Microsoft*
Windows Server* 2019.
Ficha Velocidad de enlace
La ficha Velocidad de enlace le permite cambiar el valor de la velocidad y elplex del adaptador, ejecutar
diagnósticos y utilizar la función de identificación de adaptador.
Ficha Opciones avanzadas
Las configuraciones que aparecen en la ficha Advanced (Opciones avanzadas) de Intel PROSet para el
Administrador de dispositivos de Windows le permiten personalizar mo se encarga el adaptador del etiquetado de
paquetes QoS, los paquetes jumbo, las descargas y otras funciones. Es posible que algunas de las funciones
siguientes no estén disponibles, dependiendo del sistema operativo que esté ejecutado, de los adaptadores
específicos instalados y de la plataforma particular que se utilice.
Ficha Administración de energía
La ficha Administracn de enera de Intel® PROSet reemplaza la ficha estándar de administración de energía del
Administrador de dispositivos de Microsoft Windows*. La funcionalidad estándar de administración de energía de
Windows se incorpora en la ficha de Intel PROSet.
NOTAS:
l Las opciones disponibles en la ficha Administración de energía dependen del adaptador y del sistema.
No todos los adaptadores mostrarán todas las opciones. Puede que haya ajustes de BIOS o del sistema
operativo que deban habilitarse para que el sistema se reactive. En concreto, esto es así en el caso de
Reactivar desde S5 (que también se conoce como Reactivar desde apagado).
l Los adaptadores de red Intel® 10 Gigabit no son compatibles con las funciones de administración de
energía.
l Si su sistema cuenta con un motor Manageability Engine, es posible que el LED de enlace permanezca
encendido aunque WoL esté inhabilitado.
l Cuando un adaptador se ejecuta en modo NPar, la administración de energía se limita a la partición raíz
de cada puerto.
Configuración con el software Intel® PROSet para Windows PowerShell*
El software Intel® PROSet para Windows PowerShell* contiene varios cmdlets que le permiten configurar y gestionar
los adaptadores y dispositivos Intel® Ethernet presentes en el sistema. Para obtener una lista completa de estos
cmdlets y sus descripciones, escriba get-help IntelNetCmdlets en el indicador de Windows PowerShell. Para obtener
más información de uso para cada cmdlet, escriba get-help <cmdlet_name> en el indicador de Windows PowerShell.
NOTAS:
l Los IntelNetCmdlets están firmados digitalmente. Los sistemas operativos Microsoft* Windows*
comprueban en línea las firmas digitales. En función de la conexión a Internet, esto poda provocar un
retraso antes de cualquier operación de cmdlet (incluida get-help). Si aún no lo ha hecho, asegúrese de
utilizar Import-Module para importar los IntelNetCmdlets.
l La ayuda en línea (get-help -online) no es compatible.
l Para utilizar la propiedad Minihelp para cualquier cmdlet del módulo, agregue "| Select Minihelp" a la
sintaxis completa del cmdlet. Por ejemplo:
Get-IntelNetAdapterSetting - Name "Adaptador de servidor Intel® Ethernet x520-2"
-RegistryKeyword *RSS | Select Minihelp
El software Intel® PROSet para Windows PowerShell* se instala de forma predeterminada al instalar Intel PROSet.
Después de la instalación, utilice el cmdlet Import-Module para importar los nuevos cmdlets. Es posible que necesite
reiniciar Windows PowerShell para tener acceso a los cmdlets recién instalados.
Para usar el cmdlet Import-Module, debe especificar la ruta. Por ejemplo:
PS c:\> Import-Module -Name "C:\Program Files\Intel\Wired Networking\IntelNetCmdlets"
NOTA: si incluye una barra invertida ("\") al final del comando Import-Module, la operación de importación no se
realizará correctamente. En Microsoft Windows Server* 2016, la función autocompletar agrega una barra
invertida. Si utiliza autocompletar al introducir el comando Import-Module, elimine la barra invertida de la ruta
antes de pulsar Intro para ejecutar el comando.
Consulte Microsoft TechNet para obtener más información acerca del cmdlet Import-Module.
Requisitos del sistema
l Microsoft* Windows PowerShell* versión 2.0
l .NET versión 2.0
Configuración de SR-IOV para mejorar la seguridad de red
En un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-IOV, es posible
que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las tramas de dos capas
generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de flujo basado en la
prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual, lo que disminuye el
rendimiento. Para resolver este problema y garantizar el aislamiento de flujos de tfico no deseados, configure todos
los puertos habilitados para SR-IOV para el etiquetado VLAN desde la interfaz administrativa de la PF. Esta
configuración permite descartar tramas inesperadas y potencialmente malintencionadas.
Cambio de configuración de Intel PROSet a través de Microsoft* Windows
PowerShell*
Puede utilizar el software Intel® PROSet para Windows PowerShell* para modificar la mayor parte de la configuración
de Intel PROSet.
NOTAS:
l El cmdlet Get-IntelNetAdapterStatus -Status General puede informar del estado "Link Up - This device is
not linked at its maximum capable speed" (Enlace activo - Este dispositivo no está enlazado a su
máxima capacidad de velocidad). En ese caso, si el dispositivo está establecido en negociación
automática, puede ajustar esta velocidad del interlocutor de enlace del dispositivo a la velocidad
máxima del dispositivo. Si el dispositivo no está establecido en negociación automática, puede ajustar
la velocidad del dispositivo manualmente, pero debe asegurarse de que el interlocutor de enlace se
establezca a la misma velocidad.
Cambio de configuración de Intel PROSet en Windows Server Core
Puede utilizar el software Intel® PROSet para Windows PowerShell* para cambiar la mayoría de configuraciones de
Intel PROSet en Windows Server Core. Consulte el archivo de ayuda aboutIntelNetCmdlets.hlp.txt.
Para la configuración del volcado de bloqueo de iSCSI, utilice el software Intel® PROSet para Windows PowerShell* y
consulte el archivo de ayuda aboutIntelNetCmdlets.help.txt.
NOTA: se ha eliminado la compatibilidad con las funciones de líneas de comando de Intel PROSet
(prosetcl.exe y crashdmp.exe) y este ya no está instalado. Esta funcionalidad se ha sustituido por el software
Intel® PROSet para Windows PowerShell*. Migre todas sus secuencias de comandos y procesos para utilizar
el software Inte PROSet para Windows PowerShell*.
Configuración con la utilidad de configuracn del adaptador Inte
PROSet
La utilidad de configuración del adaptador Intel® PROSet (Intel® PROSet ACU) es una interfaz gráfica de usuario que
le permite configurar y gestionar los adaptadores Intel® Ethernet compatibles.
NOTA: Intel® PROSet ACU está disponible para Microsoft* Windows Server* 2019.
Los pasos generales de configuración son los siguientes:
1. Seleccione el adaptador en el panel de selección de adaptador.
2. Seleccione un ajuste para modificarlo en el panel de configuración del adaptador.
3. Seleccione o introduzca los valores deseados para el ajuste seleccionado.
4. Haga clic en el botón "Aplicar cambios".
Características del dispositivo
NOTA: los ajustes disponibles dependen de su dispositivo y del sistema operativo. No todos los ajustes están
disponibles en todas las combinaciones de dispositivos/SO.
Separacn entre tramas ajustable
Sirve de compensación para un número excesivo de colisiones de paquetes Ethernet en la red.
La configuración predeterminada funciona mejor en la mayoría de los equipos y redes. Al habilitarla, el adaptador de
red se adapta de forma dinámica a las condiciones de tfico de la red. No obstante, en algunos casos poco comunes
se podría obtener un mejor rendimiento si se deshabilita esta función. Esta configuración fuerza un espacio estático
entre paquetes.
Valores por defecto Deshabilitado
Rango l Habilitado
l Deshabilitado
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Adaptive Inter-Frame Spacing"
DisplayValue "Enabled"
Combinación del acceso directo a memoria (DMA)
DMA (acceso directo a memoria) permite al dispositivo de red mover datos de paquete directamente a la memoria del
sistema, lo que reduce el uso de la CPU. Sin embargo, los intervalos aleatorios y de frecuencia a los que llegan los
paquetes no permiten al sistema entrar en un estado de menor consumo de energía. La combinación de DMA permite
a la NIC recopilar paquetes antes de iniciar un evento DMA. Esto puede elevar la latencia de red, pero también
aumenta las posibilidades de que el sistema consuma menos energía. Los adaptadores y dispositivos de red basados
en el controlador Intel® Ethernet I350 (y superiores) admiten la unión de DMA.
Los valores de combinación de DMA superiores pueden dar como resulta un ahorro energético mayor, pero es
posible que eleven la latencia de la red del sistema. Si habilita la combinación de DMA, también deberá establecer el
valor de la tasa de moderación de interrupción en "Minimal" (Mínimo). Esto minimiza el impacto de la latencia que
impone la combinación de DMA y produce un mejor rendimiento máximo. Debe habilitar la combinación de DMA en
todos los puertos activos del sistema. Es posible que no ahorre energía si solo la habilita en algunos puertos del
sistema. También existen varias configuraciones de BIOS, plataforma y aplicaciones que afectan a su potencial de
ahorro energético. Hay un documento con instrucciones para configurar mejor su plataforma en la página web de
Intel.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "DMA Coalescing" DisplayValue "Enabled"
Modo de correccn de errores hacia delante (FEC)
Le permite establecer el modo de corrección de errores hacia delante o Forward Error Correction (FEC). FEC mejora
la estabilidad de los enlaces, pero aumenta la latencia. Muchas ópticas de alta calidad, cables de conexión directa y
canales de placa posterior proporcionan un enlace estable sin FEC.
El controlador le permite establecer los siguientes modos de FEC:
l Auto FEC (Modo de FEC autotico): establece el modo FEC en función de las capacidades del cable
conectado.
l CL108 RS-FEC: selecciona solo la capacidad RS-FEC y las capacidades de solicitud.
l CL74 FC-FEC/BASE-R: selecciona solo la capacidad BASE-R y las capacidades de solicitud.
l No FEC (Sin FEC): deshabilita FEC.
NOTA: para que los dispositivos puedan beneficiarse de esta característica, los socios del enlace deben tener
FEC habilitado.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "FEC Mode" DisplayValue "Auto FEC"
Control de flujo
Permite que los adaptadores puedan regular el tfico de forma más eficaz. Los adaptadores generan tramas de
control de flujo cuando sus colas de recepción llegan a un límite predefinido. La generación de las tramas de control
de flujo indican al emisor que haga más lenta la transmisión. La respuesta de los adaptadores a las tramas de control
de flujo es deteniendo la transmisión de paquetes durante la duración especificada en dicha trama.
Al permitir que los adaptadores ajusten la transmisión de paquetes, el control de flujo ayuda a prevenir lardida de
paquetes. Puede mejorar el rendimiento de RDMA habilitando el control de flujo en todos los nodos y en el
conmutador al cual están conectados.
NOTAS:
l Para que los adaptadores puedan aprovechar esta función, los interlocutores de enlace deben admitir
las tramas de control de flujo.
l En sistemas que ejecutan el sistema operativo Microsoft Windows Server, la habilitación de
*QoS/control de flujo de prioridad deshabilitará el control de flujo a nivel de enlace.
l Cuando un adaptador se ejecuta en modo NPar, el control de flujo se limita a la partición raíz de cada
puerto.
Valores por defecto Habilitado para recepción y transmisión
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y
transmisión
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Flow Control" –DisplayValue "Auto
Negotiation"
Modo maestro-esclavo Gigabit
Determina si el adaptador o el interlocutor de enlace se ha designado como el maestro. El otro dispositivo se ha
designado como el esclavo. Por predeterminación, la especificación IEEE 802.3ab es la que define la manera como
se manejan los conflictos. Los dispositivos de puertos múltiples como los conmutadores tienen una prioridad mayor
que los dispositivos de un solo puerto y se les designa como el maestro. Si ambos dispositivos son de puertos
múltiples, aquel que tiene los bits de inicialización de mayor velocidad se convierte en el maestro. Esta configuración
predeterminada se llama "Configuración predeterminada del hardware".
NOTA: en la mayoa de los casos, es recomendable que conserve el valor predeterminado de esta función.
El configurar esto a "Modo forzar maestro" o "Modo forzar esclavo" sobrepasa a la predeterminación de hardware.
Valores por defecto Detección automática
Rango l Modo forzar maestro
l Modo forzar esclavo
l Detección automática
NOTA: algunos dispositivos de puertos múltiples podan estar forzados al Modo maestro. Si el adaptador está
conectado a un dispositivo de este tipo y está configurado en el "Forzar modo maestro", no se establece el
enlace.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Gigabit Master Slave Mode" DisplayValue
"Auto Detect"
Tasa de moderacn de la interrupción
Fija la Interrupt Throttle Rate (ITR). Esta configuración modera la tasa a la cual se generan las interrupciones de
Transmisión y Recepción.
Cuando sucede un evento, tal como la recepción de un paquete, el adaptador genera una interrupción. La
interrupción interrumpe a la CPU y a cualquier aplicación que se está ejecutando en ese momento y llama al
adaptador para manejar el paquete. A velocidades de enlace más rápidas, se crean s interrupciones y las tasas de
CPU aumentan tambn. Esto da por resultado un rendimiento deficiente del sistema. Si se utiliza un valor más
elevado de ITR, la tasa de interrupción será s baja y se obtendrá un mejor rendimiento de la CPU.
NOTA: una tasa de ITR más elevada significa también que el controlador tiene más latencia para manejar los
paquetes. Si el adaptador está manejando muchos paquetes pequeños, es mejor reducir la ITR de manera que
el controlador puede responder mejor a los paquetes entrantes y salientes.
La modificación de este valor puede mejorar el volumen de tfico con algunas configuraciones de red y de sistemas;
sin embargo, la configuración predeterminada es la mejor para las configuraciones s comunes de red y de
sistemas. Nunca cambie esta configuración sin comprobar que el cambio deseado resultará en un mejoramiento del
rendimiento de la red.
Valores por defecto Adaptación
Rango l Adaptación
l Extremo
l Alto
l Medio
l Bajo
l Mínimo
l Desactivado
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Interrupt Moderation Rate" DisplayValue
"Adaptive"
Descarga de la suma de comprobacn de IPv4
Permite que el adaptador calcule la suma de comprobación de IPv4 de los paquetes entrantes y salientes. Esta
función aumenta el rendimiento de transmisión y recepción de IPv4, y reduce el uso de la CPU.
Cuando la Descarga está desactivada, el sistema operativo verificará la suma de comprobación de IPv4.
Cuando la Descarga está activada, el adaptador completa la verificación en lugar del sistema operativo.
Valores por defecto Habilitado para recepción y transmisión
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y
transmisión
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "IPv4 Checksum Offload" DisplayValue "Tx
Enabled"
Tramas jumbo
Activa o desactiva la función de paquetes jumbo. El tamaño estándar de trama Ethernet es de unos 1514 bytes,
mientras que los paquetes jumbo son de mayor tamaño. Los paquetes Jumbo pueden elevar el rendimiento y reducir
el uso de la CPU. Sin embargo, puede que se cree más latencia.
Active los paquetes jumbo únicamente si TODOS los dispositivos de la red las admiten y si están configurados para
utilizar el mismo tamaño de trama. Cuando configure los paquetes jumbo en otros dispositivos de la red, tenga en
cuenta que los dispositivos de red calculan los tamaños de los paquetes jumbo de forma distinta. Algunos dispositivos
incluyen el tamaño de la trama en la información de cabecera, mientras que otros no lo hacen. Los adaptadores Intel
no incluyen el tamaño de la trama en la información de cabecera.
Restricciones
l Los protocolos compatibles se limitan a IP (TCP, UDP).
l Las tramas Jumbo requieren conexiones de conmutador compatibles que envíen dicho tipo de tramas. Si
desea más información, póngase en contacto con el proveedor de conmutadores.
l Si se utilizan tramas Ethernet de tamaño estándar (de 64 a 1518 bytes), no hay ninn beneficio en configurar
Tramas jumbo.
l La configuración de paquetes Jumbo del conmutador debe establecerse al menos en 8 bytes más que la
configuración del adaptador para los sistemas operativos Microsoft Windows, y al menos en 22 bytes más para
todos los des sistemas operativos.
Valores por
defecto
Deshabilitado
Rango Deshabilitado (1514), 4088 ó 9014 bytes (en el conmutador, agregue 4 bytes al tamaño para el
CRC y 4 bytes más si utiliza VLAN).
NOTAS:
l El hardware completo debe ser compatible con esta función; si no es así, se descartarán los paquetes.
l Algunos adaptadores Intel que admiten los paquetes Jumbo tienen un límite de tamaño de trama de
9238 bytes, con un límite de tamaño de MTU correspondiente de 9216 bytes.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Jumbo Packet" –DisplayValue "4088 Bytes"
Descarga de envío grande (IPv4 e IPv6)
Configura el adaptador para descargar la tarea de los mensajes TCP de segmentación en las tramas Ethernet lidas.
El límite máximo de tamaño de trama para la descarga de envío grande se configura en 64 000 bytes.
Debido a que el hardware del adaptador puede efectuar la segmentación de los datos mucho más rápidamente que el
software del sistema operativo, esta función puede aumentar el rendimiento de transmisión. Ades, el adaptador
utiliza menos recursos de la CPU.
Valores por defecto Habilitado
Rango l Habilitado
l Deshabilitado
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Large Send Offload V2 (IPv4)"
DisplayValue "Enabled"
Direccn administrada localmente
Sustituye la dirección MAC inicial con una dirección MAC asignada por el usuario. Para introducir una nueva dirección
de red, escriba unmero hexadecimal de 12 dígitos en este cuadro.
Valores
por
defecto
Ninguna
Rango 0000 0000 0001 - FFFF FFFF FFFD
Excepciones:
l No utilice una dirección de multidifusión (el bit menos significativo del byte alto = 1). Por
ejemplo, en la dirección 0Y123456789A, "Y" no puede ser unmero impar (Y debe ser 0, 2,
4, 6, 8, A, C, o E).
l No utilice solamente ceros o solamente la letra F.
Si no escribe una dirección, la dirección será la dirección original de la red del adaptador.
Por ejemplo,
Multidifusión: 0123 4567 8999 Difusión: FFFF FFFF FFFF
Unicast (legal): 0070 4567 8999
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Locally Administered Address"
DisplayValue "<desired address>"
Registrar evento de estado de enlace
Este valor se utiliza para habilitar o deshabilitar el registro de los cambios de estado de enlace. Si se activa, cada
suceso de cambio de activación o desactivación de enlace genera un mensaje que se muestra en el registro de
sucesos del sistema. Este mensaje contiene la velocidad y elplex del enlace. Los administradores pueden ver el
mensaje del suceso en el registro de sucesos del sistema.
Se registran los sucesos siguientes.
l El enlace está activado.
l El enlace está deshabilitado.
l No coincide elplex.
l Se detectó el Spanning Tree Protocol.
Valores por defecto Habilitado
Rango Habilitado, deshabilitado
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Log Link State Event" –DisplayValue
"Enabled"
Interrupciones de baja latencia
LLI permite al dispositivo de red ignorar el esquema de moderación de interrupciones configuración de acuerdo con el
tipo de datos que se recibe. Configura los paquetes TCP entrantes que activan una interrupción inmediata, lo que
permite al sistema procesar el paquete con mayor rapidez. Una menor latencia de datos permiten que algunas
aplicaciones accedan con más rapidez a los datos de la red.
NOTA: cuando LLI está habilitado, el uso de CPU del sistema puede aumentar.
Puede utilizarse LLI para paquetes de datos que contienen una etiqueta TCP PSH en el encabezado o para puertos
TCP especificados.
l Paquetes con la etiqueta TCP PSH Flag: cualquier paquete entrante con la etiqueta TCP PSH activa una
interrupción inmediata. La etiqueta PSH es configurada por el dispositivo remitente.
l Puertos TCP: todos los paquetes recibidos en los puertos especificados activarán una interrupción inmediata.
Pueden especificarse hasta ocho puertos.
Valores por defecto Deshabilitado
Rango l Deshabilitado
l Basado en etiqueta PSH
l Basado en puerto
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Low Latency Interrupts" –DisplayValue
"Port-Based"
Virtualizacn de redes mediante la encapsulación de enrutamiento
genérico (NVGRE)
La Virtualización de redes mediante la encapsulación de enrutamiento gerico (NVGRE) aumenta la eficiencia del
enrutamiento del tfico de red en un entorno virtualizado o en la nube. Algunos dispositivos de red Intel® Ethernet
realizan el procesamiento NVGRE (virtualización de redes mediante la encapsulación de enrutamiento genérico),
descargándolo del sistema operativo. Este procesamiento reduce la utilización de la CPU.
NOTA: si un puerto está en el modo NPar, NVGRE (el ajuste de descarga de tareas encapsulada) solo está
disponible en la primera partición del puerto.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "NVGRE Encapsulated Task Offload" –
DisplayValue "Enabled"
Opciones para la mejora del rendimiento
Perfil de rendimiento
Los perfiles de rendimiento se admiten en los adaptadores Intel® 10GbE y permiten optimizar rápidamente el
rendimiento del adaptador Intel® Ethernet. Al seleccionar un perfil de rendimiento se ajustarán autoticamente
algunos ajustes avanzados a su valor óptimo para la aplicación seleccionada. Por ejemplo: un servidor estándar tiene
un rendimiento óptimo con solo dos colas RSS (Receive-Side Scaling), pero un servidor web necesita más colas RSS
para una mejor escalabilidad.
Debe instalar Intel® PROSet para el Administrador de dispositivos de Windows para poder utilizar perfiles de
rendimiento. Los perfiles se seleccionan en la ficha Avanzado de lagina de propiedades del adaptador.
Perfiles
l Servidor estándar: este perfil está optimizado para servidores típicos.
l Servidor web: este perfil está optimizado para servidores web basados en IIS y HTTP.
l Servidor de virtualización: este perfil está optimizado para el entorno de virtualización Hyper-V
de Microsoft.
l Servidor de almacenamiento: este perfil está optimizado para FCoE (Fibre Channel over
Ethernet) o para el rendimiento de iSCSI en DCB. Con la selección de este perfil se
deshabilitará SR-IOV y VMQ.
l Almacenamiento + virtualización: este perfil está optimizado para una combinación de
requisitos de almacenamiento y virtualización.
l Latencia baja: este perfil está optimizado para minimizar la latencia de red.
NOTAS:
l No están disponibles todas las opciones en todas las combinaciones de adaptador y sistema operativo.
l Si ha seleccionado el perfil de servidor de virtualización o el de almacenamiento + virtualización, y
desinstala la función Hyper-V, debe seleccionar un perfil nuevo.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Profile" –DisplayValue "Standard Server"
Opciones de energía
La ficha de administración de energía de Intel PROSet incluye varios pametros de configuración que controlan el
consumo de energía del adaptador. Por ejemplo, puede configurarse el adaptador para que reduzca su consumo de
energía si el cable está desconectado.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Power Management.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Wake on Link Settings" –DisplayValue
"Enabled"
Reducción de la energía si el cable está desconectado y reducción de la velocidad
del enlace en el modo de espera
Permite que el adaptador reduzca el consumo de energía cuando se desconecta el cable de LAN del mismo y no hay
un enlace. Cuando el adaptador recupera un enlace válido, el consumo de energía del adaptador vuelve al estado
normal (uso de energía completo).
La opción Configuración predeterminada de hardware está disponible en algunos adaptadores. Si se selecciona esta
opción, la función estará deshabilitada o habilitada, según lo determine el hardware del sistema.
Valores por defecto El valor predeterminado varía con el sistema operativo y el adaptador.
Rango El rango varía con el sistema operativo y el adaptador.
Ethernet con uso eficiente de energía
La función Energy Efficient Ethernet (Ethernet con uso eficiente de energía, EEE) permite a un dispositivo compatible
pasar al estado inactivo de bajo consumo entre las cargas de tfico de red. Ambos extremos del enlace deben tener
EEE habilitado para poder ahorrar energía. Ambos extremos del enlace recobrarán el uso energético completo
cuando necesiten transmitir datos. Esta transición puede introducir una pequa cantidad de latencia de red.
NOTAS:
l Ambos extremos del enlace EEE deben negociar automáticamente su
velocidad.
l EEE no es compatible con todos los adaptadores.
Opciones de Wake on LAN
La capacidad de reactivar sistemas de forma remota es uno de los adelantos más importantes en la gestión de
sistemas. Esta función ha evolucionado a tras de los últimos años a partir de una capacidad de encendido remoto
sencilla hasta convertirse en un complejo sistema que tiene que ver con una gran variedad de estados de energía de
los dispositivos y sistemas operativos.
Microsoft Windows Server admite ACPI. Windows no es compatible con la reactivación a partir del estado apagado
(S5), solo desde el modo de espera (S3) o hibernación (S4). Cuando se apaga el sistema, estos estados apagan los
dispositivos ACPI, incluyendo los adaptadores Intel. Esto desactiva la capacidad de reactivación remota del
adaptador. Sin embargo, en algunos equipos compatibles con ACPI, el BIOS puede tener una configuración que le
permite hacer caso omiso del sistema operativo y reactivarlos desde un estado S5 de todas maneras. Si la
configuración del BIOS no es compatible con la reactivación desde un estado S5, solo podrá reactivarlos desde el
estado de espera si utiliza estos sistemas operativos en equipos ACPI.
La ficha Intel PROSet Power Management (Administración de energía de Intel PROSet) incluye Wake on Magic
Packet (Reactivar en Magic Packet) y Wake on directed packet settings (Reactivar en configuración de paquete
dirigido). Estas funciones controlan el tipo de paquetes que reactivan el sistema a partir del modo de espera.
En algunos adaptadores, la ficha Administración de energía de Intel PROSet incluye una opción denominada Wake
on Magic Packet from power off state (Reactivar en Magic packet desde el estado apagado). Habilite esta opción
para permitir la reactivación mediante un Magic Packet* desde la función de apagado en el modo de administración
de energía APM.
NOTAS:
l Para usar la función "Wake on Directed Packet" (Reactivar en paquete dirigido), primero debe habilitar
WoL en la EEPROM con BootUtil.
l Si la opción Reducir velocidad en el modo de espera está activada, las opciones Wake on Magic
Packet (Reactivar en Magic Packet) o Wake on directed packet (Reactivar en paquete dirigido)
tambn deben estar activadas. Si estas opciones están desactivadas, se interrumpe la alimentación del
adaptador en el modo de espera.
l Wake on Magic Packet from power off state (Reactivar en Magic packet desde el estado apagado) no
tiene ninn efecto en esta opción.
Dispositivos compatibles con WoL
Todos los dispositivos son compatibles con la función Activar en LAN en todos los puertos, con las siguientes
excepciones:
Dispositivo Puerto(s) de adaptador compatibles con WOL
Adaptador Intel® Gigabit 2P I350-t
Adaptador Intel® Gigabit 4P I350-t
Solo puerto 1
Adaptador de Ethernet de red
convergente Intel® X710-4
Adaptador de Ethernet de red
convergente Intel® X710-2
Adaptador de Ethernet de red
convergente Intel® X710
Solo puerto 1
Intel® Ethernet 25G 2P XXV710
Mezz
Adaptador Intel® Ethernet 25G 2P
XXV710
No admitido
Adaptador de Ethernet de red
convergente Intel® X710-T
Adaptador de Ethernet de red
convergente Intel® XL710-Q2
No admitido
Adaptador Intel® Ethernet 10G 2P
X710-T2L-t
No admitido
Adaptador Intel® Ethernet 10G 2P
X520
Intel® Ethernet X520 10GbE KX4-
KR Mezz de doble puerto
No admitido
Dispositivo Puerto(s) de adaptador compatibles con WOL
Adaptador Intel® Ethernet 10G 2P
X540-t
No admitido
Adaptador Intel® Ethernet 10G 2P
X550-t
No admitido
Intel® Ethernet 25G 2P XXV710
Mezz
Este dispositivo solo se puede activar si está apagado (S5). No se puede
activar desde el modo de suspensión/hibernación (S3/S4).
Configuración de Wake on Link
Activa el sistema si la conexión de red establece un enlace mientras el sistema está en modo de espera. Puede
activar o deshabilitar la función, o permitir que el sistema operativo utilice el valor predeterminado.
NOTAS:
l Si un adaptador Intel basado en cobre anuncia solo una velocidad de un gigabit, esta función no
funciona debido a que el adaptador no puede identificar un enlace de un gigabit en un estado D3.
l El cable de red debe estar desconectado al entrar a S3/S4 a fin de reanimar el sistema con el suceso de
enlace.
Valores por defecto Deshabilitado
Rango Deshabilitado
Controlado por el SO
Forzado
Remote Wake-Up (Reactivación remota)
Con Remote Wake-Up (reactivación remota) puede activar su servidor desde un estado de baja potencia o
desconexión. Si la opción Wake on LAN está activada, cuando su sistema está desconectado, la interfaz de red
cambia la potencia al modo de espera e intenta detectar un paquete especialmente diseñado. Si lo recibe, activa su
sistema.
ACPI (Advanced Configuration and Power Interface, Interfaz avanzada de configuración y energía)
ACPI es compatible con una variedad de estados de energía. Cada estado representa un nivel diferente de energía,
desde el encendido completo hasta el apagado completo, con niveles parciales de energía en cada uno de los
estados intermedios.
Estados de energía ACPI
Estado de
energía
Descripción
S0 Encendido y en completo funcionamiento
S1 El sistema se encuentra en un modo de energía bajo (modo de reposo). El reloj de la CPU está
apagado pero la RAM está encendida y se está actualizando.
S2 Similar a S1 pero no llega energía a la CPU.
S3 Suspensión en RAM (modo de espera). La mayoría de los componentes están apagados. La RAM se
mantiene en funcionamiento.
S4 Suspensión en disco (modo de hibernación). El contenido de la memoria se conserva en la unidad de
disco y luego se vuelve a cargar en la RAM cuando se reactiva el sistema.
S5 Apagado
Cómo realizar la activación tras el apagado
Para activar su sistema desde un estado de desconexión, debe activarlo desde la configuración del sistema.
1. Vaya a System Setup (Configuración del sistema).
2. Elija un puerto y acceda a Configuration (Configuración).
3. Habilite la función Wake on LAN.
Patrones de dirección de Wake-Up
Se puede iniciar la reactivación remota con una variedad de tipos de paquetes que puede seleccionar el usuario, y no
se limita al formato de Magic Packet. Para obtener más información sobre los tipos de paquetes compatibles, consulte
la sección de configuración del sistema operativo.
La capacidad de reactivación de los adaptadores de Intel se basa en los patrones transmitidos por el SO. Se puede
configurar el controlador en los siguientes ajustes utilizando Intel® PROSet para el Administrador de dispositivos de
Windows. Para Linux*, WoL se suministra mediante la utilidad ethtool*. Para obtener más información acerca de
ethtool, consulte el siguiente sitio web: http://sourceforge.net/projects/gkernel.
l Wake on Directed Packet: acepta solamente los patrones que contienen la dirección Ethernet del adaptador en
el encabezado de Ethernet o que contienen la dirección IP, asignada al adaptador, en el encabezado IP.
l Wake on Magic Packet: acepta solamente los patrones que contienen 16 repeticiones consecutivas de la
dirección MAC del adaptador.
l Wake on Directed Packet (Activar con paquete dirigido) y Wake on Magic Packet (Activar con Magic Packet):
aceptan los patrones de los paquetes dirigidos y los Magic Packets.
Si selecciona "Wake on Directed Packet", se permitirá también que el adaptador acepte patrones de Address
Resolution Protocol (ARP) solicitando la dirección IP asignada al adaptador. Si se asignan las direcciones IP a un
adaptador, el sistema operativo puede solicitar la reactivación en patrones ARP solicitando cualquiera de las
direcciones asignadas. Sin embargo, el adaptador solamente se reactiva en respuesta a paquetes ARP que
solicitan la primera dirección IP de la lista, usualmente la primera dirección asignada al adaptador.
Problemas con la instalación física
Ranura
Algunas placas base solo son compatibles con la reactivación remota (o la reactivación remota a partir de un estado
S5) en una ranura particular. Consulte la documentación que acompaña al sistema si desea s detalles sobre la
compatibilidad con la reactivación remota.
Alimentación
Los adaptadores Intel PRO s recientes son de 3,3 voltios y algunos, de 12 voltios. Están diseñados para ambos
tipos de ranuras.
La alimentación suspendida de 3,3 voltios debe tener la capacidad de suministrar al menos 0,2 amperios a cada
adaptador Intel PRO instalado. Cuando se desactiva la función de reactivación en el adaptador mediante la utilidad
BootUtil, se reduce el consumo de energía hasta unos 50 miliamperios (0,05 amperios) por cada adaptador.
Configuración del sistema operativo
Productos de Microsoft Windows
Windows Server admite ACPI. Estos sistemas operativos no son compatibles con la reactivación a partir de un estado
apagado (S5), solamente desde el modo de espera. Cuando se apaga el sistema, se apagan los dispositivos ACPI, lo
cual incluye los adaptadores Intel PRO. Esto desactiva la capacidad de la reactivación remota de los adaptadores. Sin
embargo, en algunos equipos compatibles con ACPI, la BIOS puede tener una configuración que le permite hacer
caso omiso del SO y reactivarlos desde un estado S5 de todas maneras. Si la configuración del BIOS no es
compatible con la reactivación desde un estado S5, solo podrá reactivarlos desde el estado de espera si utiliza estos
sistemas operativos en equipos ACPI.
En algunos adaptadores, la ficha Administración de energía de Intel PROSet incluye una opción denominada "Wake
on Magic Packet from power off state". Para permitir la reactivación explícita mediante un Magic Packet a partir del
apagado en el modo de administración de energía APM, seleccione esta casilla para habilitar esta opción. Para
obtener más información, consulte Intel PROSet.
En las versiones de Windows compatibles con ACPI, las configuraciones avanzadas de Intel PROSet también
incluyen una configuración denominada Wake on Settings (Configuración de la reactivación). Esto controla el tipo de
paquetes que reactivan el sistema a partir del modo de espera. Para obtener más información, consulte Intel PROSet.
Si no tiene Intel PROSet instalado, tendrá que realizar lo siguiente:
1. Abra el Administrador de dispositivos, vaya a la ficha Power Management (Administración de energía) y seleccione
"Allow this device to bring the computer out of standby" (Permitir que este dispositivo reactive el equipo).
2. En la ficha Advance (Opciones avanzadas), establezca la opción "Wake on Magic packet" (Activar con Magic
Packet) en Habilitado.
Para reactivar desde S5 sin Intel PROSet, en la pesta Opciones avanzadas, configure "Habilitar PME" en
Habilitado.
Otros sistemas operativos
Remote Wake-Up (Reactivación remota) también es compatible con Linux.
Etiquetado de prioridad y VLAN
Habilita al adaptador a descargar la inserción y eliminación de etiquetas de prioridad y VLAN para operaciones de
transmisión y recepción.
Valores por defecto Prioridad y VLAN habilitadas
Rango l Prioridad y VLAN deshabilitadas
l Prioridad habilitada
l VLAN habilitada
l Prioridad y VLAN habilitadas
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para establecer esta opción en Windows Powershell, primero desactive DCB y, a continuación, establezca la prioridad
y el etiquetado VLAN. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "DCB" -DisplayValue "Desactivado"
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Prioridad de paquetes y VLAN" -
DisplayValue "VLAN activada"
Marca de tiempo del hardware del PTP
Permite que las aplicaciones que usan PTPv2 (Precision Time Protocol) utilicen las marcas de tiempo generadas por
el hardware para sincronizar los relojes en toda la red.
Valores por defecto Deshabilitado
Rango l Habilitado
l Deshabilitado
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "PTP Hardware Timestamp" DisplayValue
"Enabled"
Calidad de servicio
Calidad de servicio (QoS) permite que el adaptador envíe y reciba tramas etiquetadas como IEE 802.3ac. Las tramas
etiquetadas 802.3ac incluyen tramas etiquetadas con prioridad 802.1p y tramas etiquetadas como VLAN 802.1Q. Para
poder implementar QoS, el adaptador debe estar conectado a un conmutador que sea compatible con QoS y que esté
configurado para ello. Las tramas con etiquetas de prioridad permiten que los programas que utilizan eventos en
tiempo real hagan un uso más eficaz del ancho de banda de la red. Los paquetes con prioridad alta se procesan
antes que los paquetes con prioridades inferiores.
Para poder implementar QoS, el adaptador debe estar conectado a un conmutador que sea compatible con 802.1Q
QoS y que esté configurado para ello.
Se pueden activar o desactivar las etiquetas QoS en la ficha Opciones avanzadas de Intel PROSet para el
Administrador de dispositivos de Windows.
Para establecer esta opción en Windows Powershell, primero desactive DCB y, a continuación, configure QoS con los
valores de Prioridad y etiquetado VLAN como DisplayName en el cmdlet. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "DCB" -DisplayValue "Desactivado"
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Prioridad de paquetes y VLAN" -
DisplayValue "VLAN activada"
Cuando QoS esté activado, puede especificar los niveles de prioridad según el etiquetado de tramas IEEE
802.1p/802.1Q.
Búferes de recepcn
Define la cantidad de Búferes de recepción, los cuales son segmentos de datos. Se asignan en la memoria del
sistema principal y se utilizan para almacenar los paquetes recibidos. Cada paquete recibido necesita al menos un
fer de recepción, y cada búfer utiliza 2 KB de memoria.
Si observa una disminución importante del rendimiento del tfico recibido, qui desee aumentar elmero de
feres de recepción. Si el rendimiento de recepción no es un problema, utilice el valor predeterminado que sea
apropiado para el adaptador.
Valores por defecto 512, para todos los adaptadores.
Rango 128-4096, en intervalos de 64, para todos los adaptadores.
Valor recomendado Si se utiliza IPSec y/o varias funciones: 352
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Receive Buffers" DisplayValue "256"
RSS
Al habilitar Receive Side Scaling (RSS), todo el proceso de datos recibidos para una conexión TCP determinada se
comparte entre varios procesadores o núcleos de procesadores. Sin RSS, todo el proceso lo realiza un solo
procesador, lo que produce una utilización menos eficiente de la memoria caché del sistema.
LAN RSS
LAN RSS se aplica a una conexión TCP concreta.
NOTA: esta configuración no surte efecto si su sistema tiene una sola unidad de procesamiento.
Configuración de LAN RSS
RSS se habilita en la ficha Opciones avanzadas de lagina de propiedades del adaptador. Si su adaptador no es
compatible con RSS, o si SNP o SP2 no está instalado, no aparecerá la configuración de RSS. Si RSS es compatible
en el entorno de su sistema, aparece lo siguiente:
l Nodo NUMA de puerto. Es el número de nodo NUMA de un dispositivo.
l Inicio de la CPU de RSS. Esta opción le permite establecer el procesador inicial preferido de RSS. Cambie
esta opción si el procesador actual está dedicado a otros procesos. El rango de esta opción es de 0 almero
de CPUgicas menos uno.
l Número ximo de CPU de RSS. Esta opción le permite establecer elmero máximo de CPU asignadas a
un adaptador y se utiliza principalmente en un entorno Hyper-V. Si reduce esta opción en un entorno Hyper-V,
elmero total de interrupciones se reduce, lo que disminuye la utilización de la CPU. El valor predeterminado
es 8 para adaptadores Gigabit y 16 para adaptadores de 10 Gigabits.
l Nodo NUMA preferido. Esta opción le permite elegir el nodo NUMA (Acceso a memoria no uniforme) que se
utiliza para asignaciones de memoria realizadas por el adaptador de red. Además, el sistema intentará
utilizar primero las CPU del nodo NUMA preferido para los fines de RSS. En las plataformas NUMA, la latencia
de acceso a la memoria depende de la ubicación de ésta. La asignación de memoria del nodo más cercano
ayuda a mejorar el rendimiento. El Administrador de tareas de Windows muestra el ID del nodo NUMA para
cada procesador.
NOTAS:
l Esta opción solo afecta a los sistemas NUMA. No tend ninn efecto en los sistemas que no
sean NUMA.
l Al elegir un valor mayor que elmero de nodos NUMA presentes en el sistema, se selecciona
el nodo NUMA más cercano al dispositivo.
l Colas de Receive Side Scaling. Esta configuración establece el número de colas de RSS, lo que determina el
espacio para almacenar transacciones en elfer entre el adaptador de red y las CPU.
Valores por
defecto
2 colas para los adaptadores Intel® 10 Gigabit para servidor
Rango l Se usa 1 cola cuando se requiere un bajo nivel de utilización de la CPU.
l Se usan 2 colas cuando se requiere un buen rendimiento y un bajo nivel de
utilización de la CPU.
l Se utilizan 4 colas para las aplicaciones que requieren el máximo rendimiento y
mero de transacciones por segundo.
l Se admiten 8 y 16 colas en los adaptadores Intel® basados en 82599.
NOTAS:
l Las 8 y 16 colas solo están disponibles cuando está instalado
PROSet para el Administrador de dispositivos de Windows. Si
PROSet no está instalado, solo se dispone de 4 colas.
l Si se utilizan 8 colas o más, debe reiniciarse el sistema.
NOTA: no todos los valores están disponibles en todos los adaptadores.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra
en la ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por
ejemplo: Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Receive Side Scaling"
DisplayValue "Enabled"
Configuración de la velocidad y dúplex
Visión general
La configuración de la velocidad de enlace y del dúplex permite elegir la manera en que el adaptador ena y recibe
paquetes de datos por la red.
En el modo predeterminado, un adaptador de red de Intel que utilice conexiones de cobre intentará realizar la
negociación automática con su interlocutor de enlace para determinar la mejor configuración. Si no se establece un
enlace con el interlocutor de enlace mediante la negociación automática, puede que sea necesario poner el
adaptador y el interlocutor del enlace en la misma configuración manualmente, a fin de establecer el enlace y pasar
paquetes. Esto será necesario únicamente cuando se intente establecer el enlace con un conmutador antiguo que no
admite la negociación automática o uno que ha sido forzado a una velocidad o modo dúplex espeficos.
La negociación automática se inhabilita al seleccionar una velocidad discreta y modoplex en la hoja de
propiedades del adaptador.
NOTAS:
l Cuando un adaptador se ejecuta en el modo NPar, la configuración de la velocidad se limita a la
partición raíz de cada puerto.
l Los adaptadores de fibra óptica solo funcionan en el modo dúplex completo a su propia velocidad.
Las configuraciones disponibles cuando la negociación automática está deshabilitada dependen del dispositivo. No
todas las velocidades están disponibles en todos los dispositivos. Su interlocutor de enlace debe coincidir con el valor
establecido.
NOTAS:
l Aunque algunas hojas de propiedades de adaptador (configuración de propiedades de adaptador)
indican 10 Mb/s y 100 Mb/s con dúplex completo o medio como opciones, no es recomendable utilizar
estas configuraciones.
l Solamente los administradores de red experimentados debean forzar manualmente la velocidad y el
modoplex.
l No puede cambiarse la velocidad o dúplex de los adaptadores Intel que utilizan cables de fibra.
l La ficha Link Speed (Velocidad de enlace) puede mostrar un icono informativo azul que muestra un
mensaje al pasar el ratón por encima del icono: "This device is not linked at its maximum capable
speed" (Este dispositivo no está enlazado a su máxima capacidad de velocidad). En ese caso, si el
dispositivo está establecido en negociación automática, puede ajustar esta velocidad del interlocutor de
enlace del dispositivo a la velocidad máxima del dispositivo. Si el dispositivo no está establecido en
negociación automática, puede ajustar la velocidad del dispositivo manualmente, pero debe asegurarse
de que el interlocutor de enlace se establezca a la misma velocidad.
Los adaptadores Intel de 10 Gigabit que admiten la velocidad de 1 gigabit permiten configurar la opción de velocidad.
Si esta opción no está disponible, el adaptador solo funcionará a su propia velocidad.
Si el adaptador no establece un enlace con el interlocutor de enlace de gigabit mediante la negociación automática,
establezca el adaptador en 1 Gbps con dúplex completo.
Los adaptadores de fibra óptica Intel 10 Gigabit y los dispositivos de conexión directa SFP solo funcionan enplex
completo y a su propia velocidad. Los módulos de fibra SFP+ 10 Gigabit de varias velocidades admitenplex
completo a velocidades de 10 Gbps y 1 Gbps.
Configuración manual de los valores del plex y la velocidad
La configuración depende del controlador del sistema operativo. Para configurar una velocidad de enlace y el modo
plex espeficos, consulte la sección que corresponda al sistema operativo, a continuación.
ADVERTENCIA: la configuración del conmutador siempre debe coincidir con la del adaptador. Puede
verse afectado el rendimiento del adaptador, o hasta podría dejar de funcionar, si lo configura de manera
distinta al conmutador.
Windows
La configuración predeterminada tiene la negociación automática activada. Cambie esta configuración solamente
para que coincida con la velocidad de su interlocutor de enlace y el ajuste deplex si tiene problemas para
conectarse.
1. En el Administrador de dispositivos de Windows, haga doble clic en el adaptador que desee configurar.
2. En la ficha Link Speed (Velocidad de enlace), seleccione la opción de velocidad y plex en el menú
desplegable Speed and Duplex (Velocidad y dúplex).
3. Haga clic en OK (Aceptar).
Existen instrucciones s espeficas en la ayuda de Intel PROSet.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Speed & Duplex" DisplayValue "Auto
Negotiation"
Linux
Consulte Controlador de Linux* para la familia de adaptadores Intel® Gigabit para obtener información sobre mo
configurar la velocidad y el modo dúplex en los sistemas Linux.
Marca de tiempo del software
Permite que las aplicaciones que usan PTPv2 (Precision Time Protocol) utilicen las marcas de tiempo generadas por
el software para sincronizar los relojes en toda la red.
Valores por defecto Deshabilitado
Rango l Deshabilitado
l RxAll
l TxAll
l RxAll y TxAll
l TaggedTx
l RxAll y TaggedTx
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "PTP Hardware Timestamp" DisplayValue
"Enabled"
SR-IOV (Virtualizacn de E/S de rz única)
SR-IOV permite que un solo puerto de red parezca tener varias funciones virtuales en un entorno virtualizado. Si tiene
una NIC preparada para SR-IOV, cada puerto de la NIC podrá asignar una función virtual a varias particiones
invitadas. Las funciones virtuales omiten el Gestor de la máquina virtual (VMM), con lo que los datos del paquete
pueden pasar directamente a la memoria de una partición invitada, de forma que se obtiene mayor productividad con
un uso menor de la CPU. SR-IOV también permite mover los datos del paquete directamente a la memoria de una
partición invitada. Consulte los requisitos del sistema en la documentación de su sistema operativo.
Para los dispositivos compatibles, la SR-IOV está habilitada en la partición del host en la hoja de propiedades del
Administrador de dispositivos relativa al adaptador, bajo Virtualización en la ficha Opciones avanzadas. Es posible
que algunos dispositivos deban tener SR-IOV habilitada en un entorno de preinicio.
NOTAS:
l Configuración de SR-IOV para mejorar la seguridad de red: en un entorno virtualizado, en aquellos
adaptadores de servidor Intel® que son compatibles con SR-IOV, es posible que la función virtual (VF)
esté sujeta a comportamientos malintencionados. No se esperan las tramas de dos capas generadas
por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb (control de flujo basado en
la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el conmutador virtual, lo que
disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento de flujos de tfico no
deseados, configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN desde la
interfaz administrativa de la PF. Esta configuración permite descartar tramas inesperadas y
potencialmente malintencionadas.
l SR-IOV debe habilitarse en la BIOS.
l Debe habilitar VMQ para que SR-IOV funcione.
l Para obtener el mejor rendimiento, en el host, utilice "Set-VMNetworkAdapter -IovQueuePairsRequested
4" en la VF para permitir que la red virtual utilice 4 colas (valor máximo admitido) y asigne 4 o más CPU
virtuales a la máquina virtual conectada. En la máquina virtual, establezca el valor 4 como "Número
máximo de colas de recepción" en las propiedades del adaptador de la VF.
l VMWare ESXi no es compatible con SR-IOV en puertos 1GbE.
l Algunos adaptadores multipuerto contienen más de un controlador. En estos adaptadores, activar SR-
IOV en un puerto no activará SR-IOV en todos los puertos. Solo los puertos enlazados al mismo
controlador estarán activados.
l Si se desactiva SR-IOV en BIOS o el Administrador de inicio, se necesario reiniciar el sistema para
activar SR-IOV desde Intel PROSet.
l Cuando un adaptador se ejecuta en modo NPar, SR-IOV se limita a la partición raíz de cada puerto.
l Cuando un adaptador se ejecuta en modo NPar, la configuración de virtualización (SR-IOV) se aplica a
todos los puertos del adaptador. Los cambios realizados en la configuración de virtualización en un
puerto se aplican a todos los puertos del adaptador.
l Debido a las limitaciones del chipset, no todos los sistemas o ranuras son compatibles con SR-IOV. A
continuación se incluye un gráfico que resume la compatibilidad de SR-IOV en las plataformas de
servidor Dell EMC.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "SR-IOV" DisplayValue "Enabled"
Activación de SR-IOV en el servidor
Debe activar SR-IOV en el BIOS o el HII del sistema.
BIOS
1. Acceda al BIOS del sistema en la POST.
2. Active Global SR-IOV.
3. Habilite Tecnología de virtualización.
4. Guarde los cambios y salga.
HII
1. Durante la POST, pulse F2 para acceder a la configuración del dispositivo.
2. Vaya a NIC -> Configuración de nivel de dispositivo.
3. Establezca el modo de virtualización en "SR-IOV" o "NPAR + SR-IOV".
4. Guarde los cambios y salga.
Compatibilidad de SR-IOV en adaptadores de red
NDC, LOM o adaptador 40 Gbe 25Gbe 10Gbe 1Gbe
Adaptador de Ethernet de red convergente Intel® XL710-Q2
Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
Intel® Ethernet 25G 2P XXV710 Mezz
Adaptador Intel® Ethernet 25G 2P XXV710
Intel® Ethernet 10G 4P X710-k bNDC
Intel® Ethernet 10G 2P X710-k bNDC
Intel® Ethernet 10G X710-k bNDC
Adaptador de Ethernet de red convergente Intel® X710
Adaptador de Ethernet de red convergente Intel® X710-T
Intel® Ethernet 10G 2P X710 OCP
Intel® Ethernet Server Adapter X710-DA2 para OCP para servidores
Intel® Ethernet 10G 4P X710/l350 rNDC No
Intel® Ethernet 10G 4P X710 SFP+ rNDC
Intel® Ethernet 10G X710 rNDC No
Intel® Ethernet 10G 4P X550 rNDC
Intel® Ethernet 10G 4P X550/I350 rNDC No
Adaptador Intel® Ethernet 10G 2P X550-t
Adaptador Intel® Ethernet 10G 2P X540-t
Intel® Ethernet 10G 4P X540/I350 rNDC No
Intel® Ethernet 10G 4P X520/I350 rNDC No
Intel® Ethernet 10G 2P X520-k bNDC
Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
Intel® Ethernet 1G 4P I350-t OCP
Intel® Gigabit 4P I350-t rNDC
NDC, LOM o adaptador 40 Gbe 25Gbe 10Gbe 1Gbe
Intel® Gigabit 4P I350 bNDC
Intel® Gigabit 4P I350-t Mezz
Adaptador Intel® Gigabit 2P I350-t
Adaptador Intel® Gigabit 4P I350-t
LOM PowerEdge C4130 No
LOM PowerEdge C6320
LOM PowerEdge C6420 No
LOM PowerEdge T620 No
LOM Dell PowerEdge T630 No
LOM Dell PowerEdge FC430 No
LOM Dell PowerEdge R530XD No
Dell EMC
Plataforma
OCP
Mezz
Bastidor
NDC
Ranura PCI Express
1 2 3 4 5 6 7 8 9 10 11 12 13
C4130
C4140 no no
C6320
C6420
R230 no no
R240 no no
R320 no
R330 no no
R340 no no
R420 1 x CPU no
2 x CPU
R430
R440
R520 1 x CPU no
2 x CPU
R530 no no
R540 no
R530XD no
R620
R630
R640
Dell EMC
Plataforma
OCP
Mezz
Bastidor
NDC
Ranura PCI Express
1 2 3 4 5 6 7 8 9 10 11 12 13
R720XD
R720
R730
R730XD
R740
R740XD2 no
R820
R830
R840
R920
R930
R940
T130 no no no no
T140 no no no no
T320 no no
T330 no no no no
T340 no no no no
T420 no no
T430 no no
T440 no
T620 no
T630 no
T640
Dell EMC Plataforma Hoja NDC Ranura Mezzanine
B C
FC430
FC630
FC830
M420
M520 no
M620
M630
M630 para VRTX
Dell EMC Plataforma Hoja NDC Ranura Mezzanine
B C
M640
M640 para VRTX
M820
M830
M830 para VRTX
MX740c
MX840c
Las plataformas o ranuras compatibles se indican con "sí". Las plataformas no compatibles se indican con un "no".
Cuando no es aplicable, se indica con celdas en blanco.
Descarga de la suma de comprobacn de TCP (IPv4 e IPv6)
Permite al adaptador verificar la suma de comprobación de TCP de los paquetes entrantes y calcular la suma de
comprobación de TCP de los paquetes salientes. Esta función aumenta el rendimiento de transmisión y recepción, y
reduce el uso de la CPU.
Cuando la Descarga está desactivada, el sistema operativo verificará la suma de comprobación de TCP.
Cuando la Descarga está activada, el adaptador completa la verificación en lugar del sistema operativo.
Valores por defecto Habilitado para recepción y transmisión
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y
transmisión
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "TCP Checksum Offload (IPv4)"
DisplayValue "Tx Enabled"
Opciones de descarga de TCP/IP
Supervisn de la temperatura
Los adaptadores y controladores basados en el controlador Intel® Ethernet I350 (y superiores) pueden mostrar datos
de temperatura y reducir automáticamente la velocidad del enlace si la temperatura del controlador aumenta
demasiado.
NOTA: esta función viene habilitada y configurada por el fabricante del equipo. No está disponible en todos los
adaptadores y controladores de red. No existen opciones de configuración para el usuario.
Supervisión e informe
La información sobre la temperatura se muestra en la ficha Link (Enlace) en Intel® PROSet para el Administrador de
dispositivos de Windows*. Hay tres condiciones posibles:
l Temperatura: Normal
Indica que el funcionamiento es normal.
l Temperatura: Sobrecalentado, enlace reducido
Indica que el dispositivo ha reducido la velocidad del enlace para reducir el consumo de energía y la
temperatura.
l Temperatura: Sobrecalentado, adaptador detenido
Indica que el dispositivo está demasiado caliente y ha dejado de transmitir tráfico para no resultar dado.
Si se produce alguno de estos casos de sobrecalentamiento, el controlador del dispositivo escribe un mensaje en el
registro de eventos del sistema.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Get-IntelNetAdapter. Por ejemplo: Get-
IntelNetAdapter –Name "<nombre_adaptador" | fl
Búferes de transmisn
Define el número de Búferes de transmisión, los cuales son segmentos de datos que hacen que el adaptador pueda
hacer un seguimiento de los paquetes de transmisión en la memoria del sistema. Cada paquete de transmisión
necesita uno o varios Búferes de transmisión, dependiendo del tamaño del mismo.
Si observa un problema posible con el rendimiento de transmisión, puede optar por aumentar elmero de Búferes
de transmisión. Aumentar elmero de Búferes de transmisión puede mejorar el rendimiento de transmisión, pero
estos consumen memoria del sistema. Si el funcionamiento de la transmisión no es un problema, utilice el valor
predeterminado. El valor predeterminado varía según el tipo de adaptador.
Si necesita ayuda para identificar su adaptador, consulte el tema Especificaciones del adaptador.
Valores por defecto 512, según los requisitos del adaptador
Rango 128-16384, en intervalos de 64, para los adaptadores 10 Gigabit para servidor.
128-4096, en intervalos de 64, para todos los des adaptadores.
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Transmit Buffers" DisplayValue "128"
Descarga de la suma de comprobacn de UDP (IPv4 e IPv6)
Permite al adaptador verificar la suma de comprobación de UDP de los paquetes entrantes y calcular la suma de
comprobación de UDP de los paquetes salientes. Esta función aumenta el rendimiento de transmisión y recepción, y
reduce el uso de la CPU.
Cuando la Descarga está desactivada, el sistema operativo verificará la suma de comprobación de UDP.
Cuando la Descarga está activada, el adaptador completa la verificación en lugar del sistema operativo.
Valores por defecto Habilitado para recepción y transmisión
Rango l Deshabilitado
l Habilitado para recepción
l Habilitado para transmisión
l Habilitado para recepción y
transmisión
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "UDP Checksum Offload (IPv4)"
DisplayValue "Tx Enabled"
Esperar al enlace
Determina si el controlador espera a que la negociación automática sea satisfactoria antes de informar el estado del
enlace. Si se desactiva esta función, el controlador no espera a la negociación automática. Si se activa esta función, el
controlador espera a la negociación automática.
Si esta función está activada y la velocidad no se define como negociación automática, el controlador esperará
durante un lapso breve a que se establezca un enlace antes de informar del estado del mismo.
Si la función está configurada como Deteccn automática, se establece automáticamente como Activado o
Desactivado en función de la velocidad y el tipo de adaptador cuando se instaló el controlador. La configuración es:
l Desactivada para los adaptadores Intel Gigabit de cobre con una velocidad "Automática".
l Activada para los adaptadores Intel Gigabit de cobre con una velocidad forzada y dúplex.
l Activada para los adaptadores Intel Gigabit de fibra con una velocidad "Automática".
Valores por defecto Detección automática
Rango l Activado
l Desactivado
l Detección
automática
En la hoja de propiedades del Administrador de dispositivos del dispositivo, esta configuración se encuentra en la
ficha Advanced.
Para cambiar esta configuración en Windows PowerShell, utilice el cmdlet Set-IntelNetAdapterSetting. Por ejemplo:
Set-IntelNetAdapterSetting -Name "<nombre_adaptador>" -DisplayName "Wait for Link" DisplayValue "Off"
Instalación y configuración del controlador de Linux*
Visión general
Esta versión incluye controladores base de Linux para las conexiones de red Intel®. En las siguientes secciones se
ofrece información espefica sobre la compilación, la instalación, la configuración y los pametros de línea de
comandos de estos controladores:
l Controlador igb de Linux para adaptadores Intel® Gigabit Ethernet basados en los controladores I350 y I354
l Controlador ixgbe de Linux para adaptadores Intel® 10 Gigabit Ethernet basado en los controladores 82599,
X540 y X550
l Controlador i40e de Linux para adaptadores Intel® 10 Gigabit Ethernet basado en los controladores X710 y
XL710
Consulte la sección Adaptadores compatibles para determinar el controlador que puede utilizar.
Estos controladores solo son compatibles como dulo cargable. Intel no ofrece modificaciones para el digo fuente
del kernel que permitan enlazar el controlador de forma estática.
Esta versión tambn es compatible con los controladores de virtualización de E/S de raíz única (SR-IOV). Aq se
puede encontrar más información sobre SR-IOV. Los siguientes controladores son compatibles con los dispositivos
con función virtual enumerados que solo pueden activarse en los kernel que admitan SR-IOV. SR-IOV requiere la
compatibilidad correcta con la plataforma y el SO.
l Controlador ixgbevf de Linux para la familia de adaptadores 82599, X540, y X550 10 Gigabit.
l Controlador iavf de Linux para la familia de adaptadores de la serie 700.
NOTAS:
l En los sistemas que funcionan con Linux o ESXi, debe cargarse el controlador base para que FW DUP
de Dell EMC funcione correctamente.
l Si planea asignar dispositivos directamente a una quina virtual en Linux, debe habilitar la
compatibilidad con la unidad de gestión de memoria de E/S para que SR-IOV funcione correctamente.
Utilice los pametros de arranque del kernel "intel_iommu=on" para placas de sistemas con
procesadores Intel o "amd_iommu=on" para placas de sistemas con procesadores AMD, y "iommu=pt"
para habilitar la compatibilidad con IOMMU. Para obtener la mejor protección de la memoria, utilice
"intel_iommu=on". Para obtener el mejor rendimiento, utilice ambos parámetros ("intel_iommu=on
iommu=pt"). En RedHat y en la mayoría de las des distribuciones de Linux, agregue estos
pametros a la entrada GRUB_CMDLINE_LINUX del archivo de configuración /etc/default/grub. Para
sistemas de arranque en modo UEFI, ejecute grub2-mkconfig -o /etc/grub2-efi.cfg. Para
sistemas de arranque en modo BIOS heredados, ejecute grub2-mkconfig -o
/boot/grub2/grub.cfg. Para agregar estos pametros en las distribuciones de Linux basadas en
SUSE, abra Yast y, a continuación, abra el cargador de arranque y haga clic en la ficha de pametros
del kernel. Agregue los pametros opcionales en el campo de pametro de línea de comandos
opcional del kernel. Esto añade las opciones para cualquiera de los modos de arranque. Es necesario
reiniciar para que los cambios surtan efecto.
Adaptadores compatibles
Los siguientes adaptadores de red de Intel son compatibles con los controladores incluidos con esta versión:
Dispositivos compatibles con el controlador base igb de Linux
l Intel® Ethernet 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
l Placa posterior de conexión Intel® Ethernet I354 1.0 GbE
l Intel® Gigabit 2P I350-t LOM
l Intel® Gigabit I350-t LOM
l Intel® Gigabit 2P I350 LOM
Dispositivos compatibles con el controlador base ixgbe de Linux
l Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador Intel® Ethernet 10G 2P X540-t
l Adaptador Intel® Ethernet 10G 2P X550-t
l Intel® Ethernet 10G 4P X550 rNDC
l Intel® Ethernet 10G 4P X550/I350 rNDC
l Intel® Ethernet 10G 4P X540/I350 rNDC
l Intel® Ethernet 10G 4P X520/I350 rNDC
l Intel® Ethernet 10G 2P X520-k bNDC
l Adaptador Intel® Ethernet 10G 2P X520
l Intel® Ethernet 10G X520 LOM
Dispositivos compatibles con el controlador base i40e de Linux
l Intel® Ethernet 10G 4P X710-k bNDC
l Intel® Ethernet 10G 2P X710-k bNDC
l Intel® Ethernet 10G X710-k bNDC
l Adaptador de Ethernet de red convergente Intel® X710
l Adaptador de Ethernet de red convergente Intel® X710-T
l Intel® Ethernet 10G 4P X710/l350 rNDC
l Intel® Ethernet 10G 4P X710 SFP+ rNDC
l Intel® Ethernet 10G X710 rNDC
l Intel® Ethernet Server Adapter X710-DA2 para OCP para servidores
l Intel® Ethernet 10G 2P X710 OCP
l Intel® Ethernet 10G 4P X710 OCP
l Intel® Ethernet 10G 2P X710-T2L-t OCP
l Adaptador Intel® Ethernet 10G 2P X710-T2L-t
l Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
l Adaptador de Ethernet de red convergente Intel® XL710-Q2
l Adaptador Intel® Ethernet 25G 2P XXV710
l Intel® Ethernet 25G 2P XXV710 Mezz
Para verificar si el adaptador es compatible, busque elmero de ID de la tarjeta en el adaptador. Busque una
etiqueta que tenga un código de barras y unmero con el formato 123456-001 (seis dígitos, guion, tres dígitos).
Compárelo con la lista demeros indicada arriba.
Para obtener s información sobre la identificación del adaptador o para obtener el controlador de red para Linux
más reciente, póngase en contacto con la asistencia al cliente.
Versiones compatibles de Linux
Los controladores de Linux se ofrecen para las siguientes distribuciones (solo son compatibles las versiones de Intel®
64):
Red Hat Enterprise Linux (RHEL):
l Red Hat* Enterprise Linux* (RHEL) 8.1
l Red Hat* Enterprise Linux* (RHEL) 7.7
SUSE Linux Enterprise Server (SLES):
l Novell* SUSE* Linux Enterprise Server (SLES) 15 SP1
NOTA: los siguientes dispositivos también admiten RHEL 7.3 x64, y SLES 12 SP2 x64.
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P X710/I350 rNDC
l Intel® Ethernet 10G 4P X550/I350 rNDC
l Intel® Ethernet 10G 4P X710/I350 rNDC
Particiones NIC
En los adaptadores Intel® basados en la serie 710 que lo admiten, puede configurar varias funciones en cada puerto
sico. Configure estas funciones mediante la Configuración del sistema/BIOS.
El ancho de banda TX mínimo es el ancho de banda de transmisión de datos mínimo garantizado, como porcentaje de
la velocidad completa de enlace de puerto físico, que recibirá la partición. El ancho de banda que se concede a la
partición no caerá nunca por debajo del nivel que se especifica aquí.
El rango de los valores mínimos de ancho de banda es:
De 1 a (100 menos (número de particiones en el puerto físico) más 1).
Por ejemplo, si un puerto físico tiene 4 particiones, el rango sería:
De 1 a ((100 - 4) + 1 = 97)
El porcentaje de ancho de banda máximo representa el ancho de banda de transmisión máximo asignado a la
partición como porcentaje de la velocidad xima de enlace del puerto físico. El rango de valores válido es 1-100. El
valor puede utilizarse como limitador, en caso de que elija que una función determinada no pueda consumir el 100 %
del ancho de banda de un puerto (si estuviera disponible). La suma de todos los valores de ancho de banda máximo
no está limitada, pues no se puede utilizar nunca más del 100 % del ancho de banda de un puerto.
NOTA:
l Si la suma de los porcentajes de ancho de bandanimo no es igual a 100, la configuración se ajusta
automáticamente para que la suma sea igual a 100.
l Si el porcentaje de ancho de banda máximo de una partición se establece en un valor menor que el
porcentaje de ancho de bandanimo de la partición, entonces el porcentaje de ancho de banda
máximo se establece automáticamente en el valor del porcentaje de ancho de bandanimo.
l Cuando intenta establecer los valores para el porcentaje de ancho de banda mínimo a través del
iDRAC con el controlador de ciclo de vida mediante el uso de trabajos que no incluyen los valores para
todas las particiones habilitadas, entonces los valores que se obtienen una vez finalizados los trabajos
pueden ser diferentes de los valores que supuestamente se habían establecido. Para evitar este
problema, establezca los valores de porcentaje de ancho de bandanimo en todas las particiones
mediante el uso de un único trabajo, y asegúrese de que la suma de los valores es 100.
Una vez finalizada la configuración inicial, puede establecer asignaciones de ancho de banda diferentes en cada
función de la manera siguiente:
1. Cree un directorio nuevo denominado /config
2. Edite etc/fstab para que incluya:
configfs /config configfs defaults
3. Cargue (o recargue) el controlador i40e
4. Monte /config
5. Cree un directorio nuevo bajo config para cada partición en la que desee configurar el ancho de banda.
Aparecen tres archivos en el directorio config/partition:
- max_bw
- min_bw
- commit
Lea en max_bw para visualizar el ajuste máximo actual de ancho de banda.
Escriba en max_bw para establecer el ancho de banda máximo de esta función.
Lea en min_bw para visualizar el ajustenimo actual de ancho de banda.
Escriba en min_bw para establecer el ancho de bandanimo de esta función.
Escriba '1' en commit para guardar los cambios.
NOTAS:
l commit es de solo escritura. Si intenta leerlo, recibi un error.
l La escritura en commit solo se admite en la primera función de un puerto determinado. Si escribe en
una función posterior, recibi un error.
l No se admite superar el ancho de bandanimo. El NVM del dispositivo subyacente establecerá el
ancho de bandanimo en los valores admitidos de una manera indeterminada. Elimine todos los
directorios que estén bajo config y vuelva a cargarlos para ver cuáles son los valores reales.
l Para descargar el controlador, primero debe eliminar los directorios creados anteriormente en el paso 5.
Ejemplo de establecer el ancho de bandanimo y ximo (suponiendo que haya cuatro funciones en el puerto eth6-
eth9 y que eth6 es la primera función del puerto):
# mkdir /config/eth6
# mkdir /config/eth7
# mkdir /config/eth8
# mkdir /config/eth9
# echo 50 > /config/eth6/min_bw
# echo 100 > /config/eth6/max_bw
# echo 20 > /config/eth7/min_bw
# echo 100 > /config/eth7/max_bw
# echo 20 > /config/eth8/min_bw
# echo 100 > /config/eth8/max_bw
# echo 10 > /config/eth9/min_bw
# echo 25 > /config/eth9/max_bw
# echo 1 > /config/eth6/commit
Controlador igb de Linux* para los adaptadores Intel® Gigabit
Descripción general de igb
NOTA: en un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-
IOV, es posible que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las
tramas de dos capas generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb
(control de flujo basado en la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el
conmutador virtual, lo que disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento de
flujos de tfico no deseados, configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN
desde la interfaz administrativa de la PF. Esta configuración permite descartar tramas inesperadas y
potencialmente malintencionadas.
NOTA: para configurar el etiquetado VLAN para los puertos en un adaptador habilitado para SR-IOV, use el
comando siguiente. La configuración de VLAN debe establecerse antes de cargar el controlador de la VF o
arrancar la VM.
$ ip link set dev <PF netdev id> vf <id> vlan <vlan id>
Por ejemplo, las siguientes instrucciones configuran PF eth0 y la primera VF en VLAN 10. $ ip link set dev
eth0 vf 0 vlan 10.
Este archivo incluye la descripción del controlador básico de Linux* para las conexiones de red Intel® Gigabit
basadas en Intel® 82575EB, Intel® 82576, Intel® I350 e Intel® I354. Este controlador admite las versiones de kernel
2.6.30 y posteriores.
El controlador solo es compatible como dulo cargable. Intel no ofrece modificaciones para el digo fuente del
kernel que permitan enlazar el controlador de forma estática.
Ya están disponibles las siguientes funciones en los kernel compatibles:
l VLAN nativas
l Unión de canales (creación de equipos)
La creación de equipos de adaptadores se implementa ahora por medio del módulo de unión de canales de Linux.
Esto se incluye en los kernel compatibles de Linux. La documentación de la unn de canales se puede encontrar en
el origen del kernel de Linux: /documentation/networking/bonding.txt
El controlador igb admite la indicación horaria de IEEE para kernel 2.6.30 y superiores.
El controlador igb admite una velocidad de funcionamiento de 2,5 Gbps en 2500BASE-KX solo para conexiones de
red basadas en i354.
Use ethtool, lspci o ifconfig para obtener información sobre el controlador. Se pueden encontrar instrucciones para
actualizar ethtool en la sección Configuraciones adicionales más adelante en esta página.
Dispositivos compatibles con el controlador base igb de Linux
Los siguientes adaptadores de red de Intel son compatibles con el controlador igb incluido con esta versión:
l Intel® Ethernet 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
l Placa posterior de conexión Intel® Ethernet I354 1.0 GbE
l Intel® Gigabit 2P I350-t LOM
l Intel® Gigabit I350-t LOM
l Intel® Gigabit 2P I350 LOM
Compilacn e instalación
Existen tres métodos para instalar el controlador igb:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'.
Reemplace <nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del digo fuente del kernel instalado. Si acaba de
recompilar el kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/igb" o "/usr/local/src/igb".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
tar zxf igb-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es el mero de versión del archivo tar del controlador:
cd igb-<x.x.x>/src/
4. Compile el módulo del controlador:
make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/igb/igb.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas. Podan ser diferentes para
las distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se
incluye en el archivo tar del controlador.
5. Elimine el controlador antiguo:
rmmod igb
6. Instale el módulo con el comando modprobe:
modprobe igb <parámetro>=<valor>
7. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx>
es el nombre de interfaz:
ifconfig <ethx> <dirección_IP> netmask <netmask> up
8. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
ping <dirección_IP>
NOTA: algunos sistemas tienen dificultades para admitir las interrupciones MSI o MSI-X. Si en su sistema debe
desactivar este tipo de interrupción, el controlador puede compilarse e instalarse con el comando:
#make CFLAGS_EXTRA=-DDISABLE_PCI_MSI install
Normalmente, el controlador genera una interrupción cada dos segundos. Si no se reciben las interrupciones
en cat /proc/interrupts del dispositivo ethX, posiblemente sea necesario implementar esta solución.
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM igb existentes que haya instalados actualmente en el sistema. Estas actualizaciones
son proporcionadas por SuSE en la versión SLES. Si no hay ningún RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-igb-1.3.8.6-1.x86_64.rpm: igb es el nombre del componente; 1.3.8.6-1 es la versión del
componente, y x86_64 es el tipo de arquitectura.
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM
KMP incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión del ker-
nel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: igb es el nombre del componente; default es el
tipo de kernel; 1.3.8.6 es la versión del componente; 2.6.27.19_5-1 es la versión del kernel, y x86_64 es el tipo de
arquitectura.
Para instalar el RPM KMP, escriba los dos comandos siguientes:
rpm -i <nombre_de_archivo rpm>
rpm -i <nombre_de_archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM igb KMP, escriba lo siguiente:
rpm -i intel-igb-1.3.8.6-1.x86_64.rpm
rpm -i intel-igb-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los
RPM incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-igb-2.3.4-1.x86_64.rpm:
l igb es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
rpm -i <nombre_de_archivo rpm>
Por ejemplo, para instalar el paquete de RPM igb KMOD, escriba lo siguiente:
rpm -i kmod-igb-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la
línea de comandos junto con el comando modprobe con esta sintaxis:
modprobe igb [<opción>=<VAL1>,<VAL2>,...]
Debe asignarse un valor (<VAL#>) a cada puerto de red en el sistema admitido por este controlador. Los valores se
aplican a cada instancia, por orden de función. Por ejemplo:
modprobe igb InterruptThrottleRate=16000,16000
En este caso, hay dos puertos de red admitidos por igb en el sistema. Generalmente, el valor predeterminado de cada
pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
InterruptThrottleRate 0, 1, 3, 100-
100000
(0=desactivado,
1=dinámico,
3=conservador
dinámico)
3 El parámetro InterruptThrottleRate controla el número
de interrupciones que cada vector de interrupción
puede generar por segundo. Al aumentarse ITR se
reduce la latencia al costo de un mayor uso de CPU, si
bien en algunas circunstancias puede mejorar el flujo.
0 = La configuración de InterruptThrottleRate en 0
desactiva la moderación de interrupciones y puede
mejorar la latencia de pequeños paquetes. Sin
embargo, en general, no es adecuado para el tfico
de flujo de gran volumen debido al aumento del uso de
CPU de la mayor tasa de interrupciones. NOTAS: - En
adaptadores basados en 82599, X540 y X550, la
deshabilitación de InterruptThrottleRate también
provoca que el controlador deshabilite HW RSC.
1 = La configuración de InterruptThrottleRate en el
modo dinámico trata de moderar las interrupciones por
vector y mantener una latencia muy baja. Esto a veces
puede aumentar el uso de CPU. Si tiene planificado
implementar igb en un entorno sensible a las latencias,
tenga en cuenta este pametro.
<min_ITR>-<max_ITR> = 100-100000
La configuración de InterruptThrottleRate en un valor
igual o superior a <min_ITR> programa al adaptador
para que envíe, como ximo, esa cantidad de
interrupciones por segundo, aunque ingresen más
paquetes. De esta manera se reduce la carga de las
interrupciones en el sistema y puede reducirse el uso
de CPU en condiciones de mucha carga; sin embargo,
se aumentará la latencia dado que los paquetes no se
procesan con tanta rapidez.
NOTA: adaptadores no admitidos:
InterruptThrottleRate no es compatible con los
adaptadores basados en 82542, 82543 o
82544.
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
LLIPort De 0 a 65535 0
(deshabilitado)
LLIPort configura el puerto para las interrupciones de
baja latencia (LLI).
Las interrupciones de baja latencia permiten la
generación inmediata de una interrupción tras
procesar paquetes de recepción que coinciden con
determinados criterios definidos por los parámetros
que se describen a continuación. Los pametros LLI
no se habilitan cuando se utilizan interrupciones
tradicionales. Debe utilizar MSI o MSI-X (consulte cat
/proc/interrupts) para usar LLI correctamente.
Por ejemplo, si se utilizara LLIPort=80, la placa
generaa una interrupción inmediata al recibir un
paquete enviado al puerto TCP 80 de la quina local.
PRECAUCIÓN: la activación de LLI puede
producir unmero excesivo de
interrupciones por segundo que, a su vez,
puede provocar problemas con el sistema y
en algunos casos puede crear nico del
kernel.
LLIPush De 0 a 1 0
(deshabilitado)
LLIPush puede habilitarse o inhabilitarse (valor
predeterminado). Es más eficaz en los entornos con
numerosas transacciones pequeñas.
NOTA: si se habilita LLIPush, puede tener lugar
un ataque de denegación de servicio.
LLISize De 0 a 1500 0
(deshabilitado)
LLISize produci una interrupción inmediata si la
placa recibe un paquete cuyo tamaño es inferior al
especificado.
IntMode De 0 a 2 2 Esto permite controlar el tiempo de carga en el tipo de
interrupción registrado por el controlador. Se necesita
MSI-X para poder admitir varias colas. Algunos kernel
y combinaciones de opciones .config de kernel
forzarán un nivel inferior de compatibilidad para las
interrupciones. 'cat /proc/interrupts' mostra distintos
valores por cada tipo de interrupción.
0 = Interrupciones antiguas.
1 = Interrupciones MSI.
2 = Interrupciones MSI-X (valor predeterminado).
RSS De 0 a 8 1 0 = Asignar el valor menor entre elmero de CPU o
elmero de colas.
X = Asignar cola X, donde X es menor o igual que el
mero máximo de colas. El controlador permite el
valor máximo admitido de colas. Por ejemplo: los
adaptadores basados en I350 permiten RSS=8, donde
8 es el máximo de colas permitidas.
NOTA: para los adaptadores basados en
82575, elmero máximo de colas es 4; para
los adaptadores basados en 82576 y los
adaptadores posteriores es 8; para los
adaptadores basados en I210 es 4 colas; y para
los adaptadores basados en I211 es 2 colas.
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
Este parámetro tambn se ve afectado por el
pametro VMDq por el hecho de que limitarán más
las colas.
VMDQ
Modelo 0 1 2 3+
82575 4 4 3 1
82576 8 2 2 2
82580 8 1 1 1
VMDQ De 0 a 8 0 Es compatible con la habilitación de fondos VMDq, lo
que es necesario para que SR-IOV sea compatible.
Se fuerza que este pametro sea 1 o más si se utiliza
el pametro de módulo max_vfs. Además, el número
de colas disponibles para RSS está limitado si se
define en 1 o más.
0 = deshabilitado
1 = establece netdev como grupo 0
2 o superior = agregar colas adicionales. Sin embargo,
estos valores no se utilizan actualmente.
NOTA: si el modo SR-IOV o VMDq está
habilitado, el filtrado de VLAN de hardware y la
eliminación/inserción de etiquetas de VLAN
seguin habilitados.
max_vfs De 0 a 7 0 Este pametro añade compatibilidad con SR-IOV.
Hace que el controlador aumente al valor max_vfs de
función virtual.
Si el valor es mayor que 0, forzará que el parámetro
VMDQ sea igual a 1 o más.
NOTA: si el modo SR-IOV o VMDq está
habilitado, el filtrado de VLAN de hardware y la
eliminación/inserción de etiquetas de VLAN
seguin habilitados. Elimine el filtro de VLAN
antiguo antes de adir el filtro de VLAN nuevo.
Por ejemplo,
ip link set eth0 vf 0 vlan
100 // establecer vlan 100
para VF 0
ip link set eth0 vf 0 vlan
0 // eliminar vlan 100
ip link set eth0 vf 0 vlan
200 // establecer nuevo
vlan 200 para VF 0
QueuePairs De 0 a 1 1 Esta opción se puede modificar por 1 si no hay
suficientes interrupciones disponibles. Esto puede
suceder si alguna combinación de RSS, VMDQ y max_
vfs produce que se utilicen más de 4 colas.
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
0 = Cuando se habilita MSI-X, TX y RX intentarán
ocupar vectores diferentes.
1 = TX y RX se emparejan en un solo vector de
interrupción (predeterminado).
Node 0-n, donde n es el
mero del nodo
NUMA que debe
utilizarse para
asignar memoria
para este puerto
de adaptador.
-1, utiliza el valor
predeterminado
del controlador de
asignar memoria
en el procesador
que ejecute
modprobe.
-1
(desactivado)
El pametro Node le permite elegir qué nodo NUMA
desea que el adaptador asigne memoria del mismo.
Todas las estructuras del controlador, colas en
memoria y búferes de recepción se asignan en el
nodo especificado. Este pametro solo es útil cuando
se especifica la afinidad de interrupción; en caso
contrario, una parte del tiempo la interrupción podría
funcionar en un cleo diferente del que se ha
asignado la memoria, lo que produce que el acceso a
la memoria sea más lento y afecte a la productividad, a
la CPU, o a ambos.
EEE De 0 a 1 1 (habilitado) Esta opción permite la capacidad de IEEE802.3az,
EEE (Energy Efficient Ethernet), de anunciarse en el
interlocutor de enlace en componentes compatibles
con EEE.
Un vínculo entre dos dispositivos compatibles con EEE
tend como resultado cargas periódicas de datos
seguidas por periodos en los que el enlace se
encontrará en estado inactivo. Este estado inactivo de
bajo consumo (LPI) se admite con velocidades de
enlace de 1 Gbps y 100 Mbps.
NOTAS:
l La compatibilidad con EEE requiere
negociación automática.
DMAC 0, 250, 500, 1000,
2000, 3000, 4000,
5000, 6000, 7000,
8000, 9000, 10000
0
(deshabilitado)
Habilita o inhabilita la función de combinación de
DMA. Los valores se expresan en microsegundos y
elevan o reducen el tiempo interno de la función de
combinación de DMA. DMA (acceso directo a
memoria) permite al dispositivo de red mover datos de
paquete directamente a la memoria del sistema, lo que
reduce el uso de la CPU. Sin embargo, los intervalos
aleatorios y de frecuencia a los que llegan los
paquetes no permiten al sistema entrar en un estado
de menor consumo de energía. La combinación de
DMA permite al adaptador recoger paquetes antes de
iniciar un evento DMA. Esto puede elevar la latencia
de red, pero también aumenta las posibilidades de que
el sistema entre en un estado de menor consumo de
energía.
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
Si activa la combinación de DMA, es posible que
ahorre energía con kernel 2.6.32 y superior. Esto
aumentará al máximo las posibilidades de que su
sistema consuma menos energía. La combinación de
DMA es eficaz para ahorrar potencialmente la energía
de la plataforma solo cuando está habilitada en todos
los puertos activos.
InterruptThrottleRate (ITR) debe establecerse en
Dynamic (Dimico). Cuando ITR=0, la combinación
de DMA se inhabilita automáticamente.
Hay un documento con instrucciones para configurar
mejor su plataforma en la página web de Intel.
MDD De 0 a 1 1 (habilitado) El pametro Malicious Driver Detection (Detección de
controlador malicioso, MDD) solo es relevante para los
dispositivos que funcionen en modo SR-IOV. Cuando
se establece este pametro, el controlador detecta
una unidad VF e inhabilita sus colas TX/RX hasta que
se reinicia.
Configuraciones adicionales
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende
de la distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en
/etc/modules.conf o /etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o
archivos de configuración. Muchas distribuciones de Linux se suministran con las herramientas necesarias para hacer
estos cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el
sistema, consulte la documentación de la distribución. Si durante este proceso se le solicita el nombre del controlador
o del módulo, igb es el nombre del controlador base de Linux para la familia de adaptadores Intel Gigabit.
Por ejemplo, si se instala el controlador igb para dos adaptadores Intel Gigabit (eth0 y eth1) y se establece la
velocidad y el dúplex a 10 dúplex y 100 semidúplex, agregue lo siguiente a modules.conf:
alias eth0 igb
alias eth1 igb
options igb IntMode=2,1
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que
se muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello,
escriba lo siguiente:
dmesg -n 8
NOTA: esta configuración no se guarda a tras de los reinicios.
Tramas jumbo
La compatibilidad con las Tramas jumbo se activa cambiando la MTU a un valor mayor al valor predeterminado de
1500 bytes. Utilice el comando ifconfig para aumentar el tamaño de la MTU. Por ejemplo:
ifconfig eth<x> mtu 9000 up
Esta configuración no se guarda entre reinicios. El cambio de configuración se puede hacer permanente agregando
MTU = 9000 al archivo /etc/sysconfig/network-scripts/ifcfg-eth<x>, en las distribuciones Red Hat. Otras
distribuciones pueden almacenar esta configuración en otro lugar.
NOTAS:
l La utilización de tramas jumbo a 10 o a 100 Mbps podría dar por resultado un rendimiento deficiente o
la pérdida de un enlace.
l Para habilitar las Tramas jumbo, aumente el tamaño de la MTU en la interfaz para que sea superior a
1500.
l El tamaño máximo de las Tramas jumbo es de 9234 bytes, con un tamaño correspondiente de MTU de
9216 bytes.
l Lardida de paquetes puede tener un mayor impacto en el rendimiento cuando se utilizan Tramas
jumbo. Si observa una caída en el rendimiento después de activar las Tramas jumbo, la activación del
control de flujo puede mitigar el problema.
ethtool
El controlador utiliza la interfaz ethtool para la configuración y el diagstico del controlador, acomo para mostrar
información estadística. Se requiere la versión 3 o posterior de ethtool para esta funcionalidad, aunque es muy
recomendable descargar la versión más reciente de: http://www.kernel.org/pub/software/network/ethtool/.
Configuración de la velocidad y el dúplex
En el modo predeterminado, un adaptador de red de Intel® que utilice conexiones de cobre intentará realizar la
negociación automática con su interlocutor de enlace para determinar la mejor configuración. Si no se establece un
enlace con el interlocutor de enlace mediante la negociación automática, puede que sea necesario poner el
adaptador y el interlocutor del enlace en la misma configuración manualmente, a fin de establecer el enlace y pasar
paquetes. Esto será necesario únicamente cuando se intente establecer el enlace con un conmutador antiguo que no
admite la negociación automática o uno que ha sido forzado a una velocidad o modo dúplex espeficos.
Su interlocutor de enlace debe coincidir con el valor establecido. Los adaptadores de fibra óptica solo funcionan en el
modoplex completo, y solo a su propia velocidad.
La velocidad y el dúplex se configuran mediante la utilidad ethtool*. ethtool está incluida en todas las versiones de
Red Hat posteriores a Red Hat 7.2. Para otras distribuciones Linux, descargue e instale ethtool desde el siguiente sitio
web: http://www.kernel.org/pub/software/network/ethtool/.
ADVERTENCIA: solamente los administradores de red experimentados debean forzar manualmente la
velocidad y el modoplex. La configuración del conmutador siempre debe coincidir con la del adaptador.
Puede verse afectado el rendimiento del adaptador o éste podría dejar de funcionar si lo configura de
manera distinta al conmutador.
Habilitación de Wake on LAN*
Wake on LAN (WoL) se configura mediante la utilidad ethtool*. ethtool está incluida en todas las versiones de Red Hat
posteriores a Red Hat 7.2. Para otras distribuciones Linux, descargue e instale ethtool desde el siguiente sitio web:
http://www.kernel.org/pub/software/network/ethtool/.
Si desea instrucciones para habilitar WoL con ethtool, visite el sitio web mencionado anteriormente.
WoL se habilitará en el sistema durante el siguiente apagado o reinicio. Para esta versión del controlador, la
habilitación de WoL requiere que el controlador igb esté cargado antes de apagar o suspender el sistema.
NOTAS:
l Wake on LAN solo se admite en el puerto A de dispositivos de varios
puertos.
l Wake on LAN no se admite para el adaptador Intel® Gigabit VT Quad Port
Server.
Multiqueue
En este modo, se asigna un vector MSI-X separado para cada cola y uno para las "des" interrupciones, por
ejemplo, cambios o errores de estado del enlace. Todas las interrupciones se ajustan mediante su moderación. Debe
usarse la moderación de interrupciones para evitar tormentas de interrupciones mientras el controlador está
procesando una sola interrupción. El valor de moderación debe equivaler, comonimo, al tiempo esperado para que
el controlador procese una interrupción. El modo Multiqueue viene desactivado de forma predeterminada.
Se necesita contar con compatibilidad con MSI-X para Multiqueue. Si no se encuentra MSI-X, el sistema utilizará como
alternativa MSI o las interrupciones tradicionales. Este controlador es compatible con el modo de varias colas en las
versiones de kernel 2.6.24 y superiores. Asimismo, es compatible con el modo de varias colas de recepción en todos
los kernel que admiten MSI-X.
NOTAS:
l No utilice MSI-X con los kernel 2.6.19 ó 2.6.20. Se recomienda usar el kernel 2.6.21 o posterior.
l Algunos kernel requieren que se reinicie el sistema para cambiar en el modo de una sola cola y los
modos de varias colas o viceversa.
Large Receive Offload (LRO)
Large Receive Offload (LRO) es una técnica para aumentar el flujo entrante de las conexiones de red de alto ancho
de banda al reducir la carga de la CPU. Se agregan varios paquetes entrantes de un mismo flujo en unfer de
mayor tamaño antes de que pasen a la pila de red, lo cual reduce la cantidad de paquetes que debe procesarse. LRO
combina varias tramas Ethernet en una misma recepción en la pila y de esta manera se puede reducir el uso de CPU
para las recepciones.
NOTA: LRO requiere la versión del kernel 2.6.22 o posterior.
IGB_LRO es una etiqueta que se usa en el momento de la compilación. Puede habilitarse en el momento de la
compilación para añadir compatibilidad para LRO del controlador. La etiqueta se utiliza agregando CFLAGS_
EXTRA="-DIGB_LRO" en el archivo make cuando se lo compila. Por ejemplo:
# make CFLAGS_EXTRA="-DIGB_LRO" install
Para comprobar si el controlador utiliza LRO, observe estos contadores en ethtool:
l lro_aggregated: recuento del total de paquetes que se combinaron
l lro_flushed: cantidad de paquetes que se eliminaron de LRO
l lro_no_desc: número de veces en que un descriptor LRO no estuvo disponible para el paquete LRO
NOTA: IPv6 y UDP no son compatibles con LRO.
Reloj de hardware del protocolo de tiempo de precisión (PHC) IEEE 1588
El protocolo de tiempo de precisión (Precision Time Protocol, PTP) es una implementación de la especificación IEEE
1588 que permite a las tarjetas de red sincronizar sus relojes en una red habilitada para PTP. Funciona a través de
una serie de transacciones de aviso de sincronización y retraso que permiten a un daemon de software implementar
una controladora PID para sincronizar los relojes de las tarjetas de red.
NOTA: PTP requiere una versión de kernel 3.0.0 o posterior con compatibilidad con PTP habilitada en el kernel
y un daemon de software en el espacio de usuarios.
IGB_PTP es una etiqueta que se usa en el momento de la compilación. Puede habilitarse en el momento de la
compilación para añadir la compatibilidad para PTP del controlador. La etiqueta se utiliza agregando CFLAGS_
EXTRA="-DIGB_PTP" en el archivo make cuando se está compilando:
make CFLAGS_EXTRA="-DIGB_PTP" install
NOTA: puede que el controlador no logre compilar si el kernel no es compatible con PTP.
Para comprobar si el controlador utiliza PTP, consulte el registro del sistema para ver si un PHC ha intentado
registrarse o no. Si tiene un kernel y una versión de ethtool con compatibilidad con PTP, se puede comprobar la
compatibilidad con PTP en el controlador ejecutando:
ethtool -T ethX
Función anti-suplantación de identidad de MAC y VLAN
Cuando un controlador malicioso intenta enviar un paquete de suplantación de identidad, el hardware lo descarta y
no lo transmite. A continuación, manda una notificación de interrupción al controlador PF para informar del intento de
suplantación de identidad.
Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente mensaje al registro del
sistema (use el comando "dmesg" para verlo):
Eventos de suplantación detectados en VF(n)
Donde n es la VF que intentó realizar la suplantación de identidad.
Configuración de la dirección MAC, la VLAN y el límite de tasa con la herramienta
IProute2
Puede establecer la dirección MAC de una función virtual (VF), una VLAN predeterminada y el límite de tasa mediante
el uso de la herramienta IProute2. Descargue le última versión de la herramienta iproute2 desde Sourceforge si su
versión no posee todas las funciones que necesita.
Problemas conocidos
NOTA: después de instalar el controlador, si su conexión de red Intel® Ethernet no funciona, compruebe que
ha instalado el controlador correcto. La Tecnología Intel® de gestión activa 2.0, 2.1 y 2.5 no se admite en
conjunción con el controlador de Linux.
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza
una dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el
controlador de la VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática
sobrevivirá a una recarga del controlador de la VF.
Se detectó detención de la unidad de transmisión en los adaptadores de cuatro puer-
tos
En algunos casos, los puertos 3 y 4 no pasan el tfico e informan los errores "Detected Tx Unit Hang" (Se detectó
detención de unidad de transmisión) seguido de "NETDEV WATCHDOG: ethX: transmit timed out" ("caducó el tiempo
de espera de la transmisión"). Los puertos 1 y 2 no presentan errores y pasan el tfico.
El problema puede resolverse actualizando el kernel y el BIOS a sus versiones más recientes. Debe utilizar un
sistema operativo que sea totalmente compatible con "Message Signaled Interrupts, MSI" (Interrupciones de la señal
del mensaje), y asegúrese de que MSI está habilitada en el BIOS del sistema.
Compilación del controlador
Es probable que se produzca el error siguiente cuando intente compilar el controlador mediante la ejecución de make
install: "Linux kernel source not configured - missing version.h" (No se configu el código fuente del kernel Linux, falta
version.h).
Para resolver este problema, cree el archivo version.h. Para ello, vaya al árbol de origen de Linux y escriba:
# make include/linux/version.h
Degradación del rendimiento con las tramas jumbo
La degradación del rendimiento se puede observar en algunos entornos de trama jumbo. Si se produce, aumente el
tamaño del búfer de zócalo de la aplicación o aumente los valores de la entrada /proc/sys/net/ipv4/tcp_*mem.
Para obtener s detalles, consulte el manual de la aplicación determinada y
/usr/src/linux*/Documentation/networking/ip-sysctl.txt.
Tramas jumbo en el conmutador Foundry BigIron 8000
Hay un problema conocido cuando se usan Tramas jumbo estando conectado a un conmutador Foundry BigIron
8000. Se trata de una limitación de terceros. Si experimenta lardida de paquetes, disminuya el tamaño de MTU.
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda a tras de los reinicios. El cambio de configuración puede hacerse
permanente si agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores
diferentes o en un conmutador con particiones para VLAN).
Deshabilitación del control de flujo rx con ethtool
Para deshabilitar el control de flujo de recepción, se debe desactivar la negociación automática en la misma línea de
comandos:
ethtool -A eth? autoneg off rx off
Desconexión del cable de red mientras se ejecuta ethtool -p
En las versiones de kernel 2.5.50 y posteriores, la desconexión del cable de red mientras se ejecuta ethtool -p ha
que el sistema no responda a los comandos emitidos con el teclado, con la excepción de Control-Alt-Supr.
Aparentemente la única solución consiste en reiniciar el sistema.
No utilice LRO al enrutar paquetes
No utilice LRO al enrutar paquetes ya que existe un problema general de compatibilidad con LRO y el enrutamiento.
# make CFLAGS_EXTRA=-DAX_RELEASE_CODE=1 install
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores. Estos errores son provocados por la
forma en que el kernel de Linux informa estas condiciones de mucha exigencia.
En Red Hat 5.4-GA, el sistema se puede bloquear al cerrar la ventana de SO invitado después de cargar/descargar el
controlador de la función física (PF). No elimine el controlador igb de Dom0 mientras se asignan funciones virtuales
(VF) a los invitados. Primero, las VF deben utilizar el comando xm "pci-detach" para realizar una conexión en
funcionamiento del dispositivo VF en la VM que tiene asignada o, en caso contrario, cerrar la VM.
Descargar el controlador de la función física (PF) provoca que el sistema se reinicie cuando la quina virtual está
activada y tiene la VF cargada. No cargue el controlador PF (igb) mientras las VF estén asignadas a invitados.
Controlador ixgbe de Linux* para los adaptadores Intel® 10
Gigabit para servidor
Descripción general de ixgbe
AVISO: el controlador ixgbe se compila de forma predeterminada con la función "Large Receive Offload" (LRO)
habilitada. Esta opción se asocia con elnimo uso de CPU para las recepciones pero es incompatible con el
enrutamiento/envío ip y los puentes. Si es indispensable habilitar el envío ip o los puentes, deberá
deshabilitarse la función LRO con las opciones de tiempo de compilación según se explica en la sección de
LRO s adelante en esta sección. Si no se deshabilita la función LRO cuando se usan los puentes o el envío
ip, puede reducirse la capacidad de procesamiento o puede producirse un error irrecuperable de kernel
(pánico de kernel).
NOTA: no descargue el controlador de un puerto si hay una función virtual (VF) con una máquina virtual (VM)
activa enlazada a este. Esto ha que el puerto parezca que se bloquea. Una vez que la quina virtual se
apaga, o bien libera la VF de cualquier otra manera, el comando se completará.
NOTA: en un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-
IOV, es posible que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las
tramas de dos capas generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb
(control de flujo basado en la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el
conmutador virtual, lo que disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento
de flujos de tfico no deseados, configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN
desde la interfaz administrativa de la PF. Esta configuración permite descartar tramas inesperadas y
potencialmente malintencionadas.
En este archivo se describe el controlador base de Linux* para las conexiones de red Intel® 10 Gigabit. Este
controlador es compatible con los kernels 2.6.x y posteriores, e incluye compatibilidad para sistemas que admitan
Linux, incluidos X86_64, i686 y PPC.
El controlador solo es compatible como dulo cargable. Intel no ofrece modificaciones para el digo fuente del
kernel que permitan enlazar el controlador de forma estática. Su distribución o el kernel ya puede incluir una versión
del controlador.
Ya están disponibles las siguientes funciones en los kernel compatibles:
l VLAN nativas
l Unión de canales (creación de equipos)
l Descarga de recepción gerica
l Habilitación de puentes de centro de datos (Data Center Bridging)
La creación de equipos de adaptadores se implementa ahora por medio del módulo de unión de canales de Linux.
Esto se incluye en los kernel compatibles de Linux. La documentación de la unn de canales se puede encontrar en
el origen del kernel de Linux: /documentation/networking/bonding.txt
Use ethtool, lspci o ifconfig para obtener información sobre el controlador. Se pueden encontrar instrucciones para
actualizar ethtool en la sección Configuraciones adicionales más adelante en esta página.
Dispositivos compatibles con el controlador base ixgbe de Linux
Los siguientes adaptadores de red de Intel son compatibles con el controlador de Linux incluido con esta versión:
l Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador Intel® Ethernet 10G 2P X540-t
l Adaptador Intel® Ethernet 10G 2P X550-t
l Intel® Ethernet 10G 4P X550 rNDC
l Intel® Ethernet 10G 4P X550/I350 rNDC
l Intel® Ethernet 10G 4P X540/I350 rNDC
l Intel® Ethernet 10G 4P X520/I350 rNDC
l Intel® Ethernet 10G 2P X520-k bNDC
l Adaptador Intel® Ethernet 10G 2P X520
l Intel® Ethernet 10G X520 LOM
Dispositivos SFP+ con dispositivos ópticos conectables
NOTA: en los adaptadores de fibra SFP+ basados en 92500, si utiliza "ifconfig down", elser se
desactiva. Utilice "ifconfig up" para activar elser.
Consulte Dispositivos SFP+ y QSFP+ para obtener más información.
Compilacn e instalación
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'.
Reemplace <nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del digo fuente del kernel instalado. Si acaba de
recompilar el kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/ixgbe" o "/usr/local/src/ixgbe".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
tar zxf ixgbe-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es el mero de versión del archivo tar del controlador:
cd ixgbe-<x.x.x>/src/
4. Compile el módulo del controlador:
make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/ixgbe/ixgbe.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas. Podan ser diferentes para
las distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se
incluye en el archivo tar del controlador.
NOTA: IXGBE_NO_LRO es una etiqueta que se utiliza en el momento de la compilación. Puede
habilitarse en el momento de la compilación para eliminar la compatibilidad para LRO del controlador.
La etiqueta se utiliza agregando CFLAGS_EXTRA=-"DIXGBE_NO_LRO" en el archivo make cuando se
lo compila. Por ejemplo:
make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install
5. Elimine el controlador antiguo:
rmmod ixgbe
6. Instale el módulo con el comando modprobe:
modprobe ixgbe <parámetro>=<valor>
7. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx>
es el nombre de interfaz:
ifconfig <ethx> <dirección_IP> netmask <netmask> up
8. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM ixgbe existentes que haya instalados actualmente en el sistema. Estas actualizaciones
son proporcionadas por SuSE en la versión SLES. Si no hay ningún RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbe-1.3.8.6-1.x86_64.rpm: ixgbe es el nombre del componente; 1.3.8.6-1 es la versión del
componente, y x86_64 es el tipo de arquitectura.
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM
KMP incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión del ker-
nel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: ixgbe es el nombre del componente; default
es el tipo de kernel; 1.3.8.6 es la versión del componente; 2.6.27.19_5-1 es la versión del kernel, y x86_64 es el tipo
de arquitectura.
Para instalar el RPM KMP, escriba los dos comandos siguientes:
rpm -i <nombre_de_archivo rpm>
rpm -i <nombre_de_archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM ixgbe KMP, escriba lo siguiente:
rpm -i intel-ixgbe-1.3.8.6-1.x86_64.rpm
rpm -i intel-ixgbe-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los
RPM incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-ixgbe-2.3.4-1.x86_64.rpm:
l ixgbe es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
rpm -i <nombre_de_archivo rpm>
Por ejemplo, para instalar el paquete de RPM ixgbe KMOD, escriba lo siguiente:
rpm -i kmod-ixgbe-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la
línea de comandos junto con el comando modprobe con esta sintaxis:
modprobe ixgbe [<opción>=<VAL1>,<VAL2>,...]
Por ejemplo:
modprobe ixgbe InterruptThrottleRate=16000,16000
Generalmente, el valor predeterminado de cada pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
RSS De 0 a 16 1 RSS (Receive Side Scaling) permite varias colas para recibir
datos.
0 = Ajusta elmero de colas del descriptor al valor más bajo,
ya sea elmero de CPU o 16.
1 - 16 = Ajusta elmero de colas del descriptor a 1 - 16.
RSS también afecta el número de colas de transmisión
asignadas en los kernel 2.6.23 y s recientes con CONFIG_
NET_MULTIQUEUE definido en el archivo .config del kernel.
CONFIG_NETDEVICES_MULTIQUEUE solo es compatible
con las versiones de kernel incluidas entre la 2.6.23 y la
2.6.26. Otras opciones activan el modo de varias colas en las
versiones de kernel 2.6.27 y superiores.
NOTA: el pametro RSS no afecta a los adaptadores
basados en 82599 a no ser que el pametro FdirMode
se utilice simultáneamente para deshabilitar Flow
Director. Para obtener más información, consulte la
sección Intel® Ethernet Flow Director.
Multiqueue 0, 1 1 Compatibilidad con Multi-Queue.
0 = Deshabilita la compatibilidad con varias colas.
1 = Habilita la compatibilidad con varias colas (requisito previo
de RSS).
Acceso directo
a caché (DCA)
0, 1 0 = Deshabilita la compatibilidad de DCA en el controlador
1 = Habilita la compatibilidad de DCA en el controlador
Si el controlador está habilitado para DCA, este pametro
permite el control de tiempo de carga de la función.
NOTA: DCA no es compatible con los adaptadores
basados en X550.
IntMode De 0 a 2 2 El modo de interrupción controla el tiempo de carga permitido
respecto del tipo de interrupción registrado por el controlador.
Se requiere MSI-X para compatibilidad con varias colas y
algunos kernel y combinaciones de opciones de .config
forzarán un nivel inferior de compatibilidad para las
interrupciones. "cat /proc/interrupts" mostrará distintos valores
por cada tipo de interrupción.
0 = interrupción tradicional
1 = MSI
2 = MSIX
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
Interrupt-
ThrottleRate
De 956 a
488.281
(0=desactivado,
1=dinámico)
1 El pametro InterruptThrottleRate controla el número de
interrupciones que cada vector de interrupción puede generar
por segundo. Al aumentarse ITR se reduce la latencia al costo
de un mayor uso de CPU, si bien en algunas circunstancias
puede mejorar el flujo.
0 = La configuración de InterruptThrottleRate en 0 desactiva la
moderación de interrupciones y puede mejorar la latencia de
pequeños paquetes. Sin embargo, en general, no es
adecuado para el tfico de flujo de gran volumen debido al
aumento del uso de CPU de la mayor tasa de interrupciones.
NOTAS: - En adaptadores basados en 82599, X540 y X550, la
deshabilitación de InterruptThrottleRate también provocará
que el controlador deshabilite HW RSC.
1 = La configuración de InterruptThrottleRate en el modo
dinámico trata de moderar las interrupciones por vector y
mantener una latencia muy baja. Esto a veces puede aumentar
el uso de CPU. Si tiene planificado implementar igb en un
entorno sensible a las latencias, tenga en cuenta este
pametro.
<min_ITR>-<max_ITR> = 100-100000
La configuración de InterruptThrottleRate en un valor igual o
superior a <min_ITR> programará al adaptador para que
envíe, como máximo, esa cantidad de interrupciones por
segundo, aunque ingresen más paquetes. De esta manera se
reduce la carga de las interrupciones en el sistema y puede
reducirse el uso de CPU en condiciones de mucha carga; sin
embargo, se aumentará la latencia dado que los paquetes no
se procesan con tanta rapidez.
LLI Las interrupciones de baja latencia permiten la generación
inmediata de una interrupción tras procesar paquetes de
recepción que coinciden con determinados criterios definidos
por los pametros que se describen a continuación. Los
pametros LLI no se habilitan cuando se utilizan
interrupciones tradicionales. Debe utilizar MSI o MSI-X
(consulte cat /proc/interrupts) para usar LLI correctamente.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
LLIPort De 0 a 65535 0
(deshabilitado)
LLI se configura con el parámetro de línea de comandos
LLIPort, que especifica el TCP que debe generar
interrupciones de latencia baja.
Por ejemplo, si se utilizara LLIPort=80, la placa generaa una
interrupción inmediata al recibir un paquete enviado al puerto
TCP 80 de la quina local.
AVISO: la activación de LLI puede producir un
mero excesivo de interrupciones por segundo que,
a su vez, puede provocar problemas con el sistema y
en algunos casos puede crear nico del kernel.
LLI no es compatible con los adaptadores basados en
X550.
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
LLIPush De 0 a 1 0
(deshabilitado)
LLIPush puede habilitarse o deshabilitarse (valor
predeterminado). Es más eficaz en los entornos con
numerosas transacciones pequeñas.
NOTAS:
l Si se habilita LLIPush, puede tener lugar un
ataque de denegación de servicio.
l LLI no es compatible con los adaptadores
basados en X550.
LLISize De 0 a 1500 0
(deshabilitado)
LLISize produci una interrupción inmediata si la placa recibe
un paquete cuyo tamaño es inferior al especificado.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
LLIEType 0 - x8FFF 0
(deshabilitado)
Tipo de protocolo Ethernet de interrupción de latencia baja.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
LLIVLANP De 0 a 7 0
(deshabilitado)
Interrupción de latencia baja en umbral de prioridad de VLAN.
NOTA: LLI no es compatible con los adaptadores
basados en X550.
Control de flujo El control de flujo está habilitado de forma predeterminada. Si
desea deshabilitar un interlocutor de enlace con capacidad
para el control de flujo, utilice ethtool:
ethtool -A eth? autoneg off rx off tx
off
Intel® Ethernet
Flow Director
NOTA: los pametros de Flow Director solo se admiten
en versiones de kernel 2.6.30 o posteriores. El control
de flujo en el modo de 1 Gbps en estos dispositivos
puede llevar a detenciones de la transmisión.
Flow Director realiza las siguientes tareas:
l Dirige los paquetes de recepción según sus flujos a
distintas colas.
l Permite un control estricto al enrutar un flujo en la
plataforma.
l Empareja flujos y núcleos de CPU para conseguir
afinidad de flujo.
l Admite varios parámetros para realizar una
clasificación de flujos flexible y equilibrio de carga (solo
en el modo SFP).
Un script incluido (set_irq_affinity) automatiza la configuración
de IRQ en afinidad de CPU.
El enmascaramiento de Flow Director funciona de forma
opuesta al enmascaramiento de subred. En el comando
siguiente:
#ethtool -N eth11 flow-type ip4 src-ip 172.4.1.2
m 255.0.0.0 dst-ip 172.21.1.1 m 255.128.0.0
action 31
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
El valor de src-ip que se escribe en el filtro será 0.4.1.2, no
172.0.0.0 como caba esperar. De forma similar, el valor de
src-ip que se escribe en el filtro será 0.21.1.1, no 172.0.0.0.
Otros comandos de ethtool:
Para habilitar el director de flujo
ethtool -K ethX ntuple on
Para añadir un filtro, utilice el conmutador -U
ethtool -U ethX flow-type
tcp4 src-ip 192.168.0.100
action 1
Para ver la lista de filtros presentes
ethtool -u ethX
Filtro perfecto:
Filtro perfecto es una interfaz para cargar la tabla de filtro que
canaliza todo el flujo a queue_0 a menos que se especifique
una cola alternativa utilizando "action". En tal caso, cualquier
flujo que coincida con los criterios del filtro se dirigi a la cola
adecuada.
La compatibilidad con la función virtual (VF) se realiza a tras
del campo de datos de usuario. Debe actualizar a la versión de
ethtool creada para el kernel 2.6.40. El filtro perfecto se admite
en todos los kernels 2.6.30 y posteriores. Las reglas pueden
borrarse de la propia tabla. Esto se hace con "ethtool -U ethX
delete N", donde N es elmero de la regla que hay que
borrar.
NOTA: los filtros perfectos de Flow Director se pueden
activar en el modo de una sola cola, con SR-IOV
habilitado o con DCB deshabilitado.
Si la cola se define como -1, el filtro descartará los paquetes
coincidentes.
Para realizar un recuento de coincidencias y discrepancias del
filtro, hay dos estadísticas en ethtool: fdir_match y fdir_miss.
Además, rx_queue_N_packets muestra el mero de
paquetes procesados por la cola N.
NOTAS:
l la recepción de paquete de dirección (RPS) y la
recepción de flujo de dirección (RFS) no son
compatibles con Flow Director. Si Flow Director
está habilitado, estas funciones se
deshabilitarán.
l para las máscaras VLAN, solo se admiten 4
máscaras.
l una vez que está definida la regla, debe
proporcionar los mismos campos y máscaras (si
estas últimas se han especificado).
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
Compatibilidad con RSS UDP
Esta función agrega un conmutador de
APAGADO/ENCENDIDO para aplicar hash a determinados
tipos de flujos. No puede activar nada más que el UDP. La
opción predeterminada está deshabilitada. Solo es compatible
con la habilitación o inhabilitación en puertos para UDP en
IPv4 (udp4) o IPv6 (udp6).
NOTA: los paquetes fragmentados pueden llegar
desordenados cuando se configura la compatibilidad
con RSS UDP.
Comandos y opciones de ethtool admitidos
-n --show-nfc
Recupera las configuraciones de clasificación del flujo
entrante de la red.
rx-flow-hash
tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
Recupera las opciones de hash para el tipo de tfico de red
especificado.
-N --config-nfc
Configura la clasificación del flujo entrante de la red.
rx-flow-hash
tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
m|v|t|s|d|f|n|r...
Configura las opciones de hash para el tipo de tfico de red
especificado.
udp4
UDP en IPv4
udp6
UDP en IPv6
f
Hash en bytes 0 y 1 de la cabecera de la capa 4 del paquete
rx.
n
Hash en bytes 2 y 3 de la cabecera de la capa 4 del paquete
rx.
A continuacn, presentamos un ejemplo sobre el uso de
udp4 (UDP en IPv4):
Para incluir números de puerto UDP en la ejecución de hash
RSS:
ethtool -N eth1 rx-flow-hash udp4 sdfn
Para excluir números de puerto UDP de la ejecución de hash
RSS:
ethtool -N eth1 rx-flow-hash udp4 sd
Para ver la configuración actual de la ejecución de hash RSS
de UDP:
ethtool -n eth1 rx-flow-hash udp4
Los resultados de realizar esta llamada pueden ser los
siguientes, si está habilitado el hash de UDP:
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
Los flujos de UDP en IPv4 usan estos campos
para la clave informática del flujo de hash:
IP SA
IP DA
L4 bytes 0 & 1 [puerto src de TCP/UDP]
L4 bytes 2 & 3 [puerto dst de TCP/UDP]
Si el hash de UDP está deshabilitado, los resultados serían los
siguientes:
Los flujos de UDP en IPv4 usan estos campos
para la clave informática del flujo de hash:
IP SA
IP DA
Los dos pametros siguientes influyen en Flow Director:
FdirPballoc y AtrSampleRate.
FdirPballoc De 0 a 2 0 (64k) Tamaño del búfer de paquetes asignados a flujo.
0 = 64 k
1 = 128 k
2 = 256 k
AtrSampleRate De 1 a 100 20 Tasa de muestra de paquete ATR Tx de software. Por ejemplo,
si se establece en 20, el 20º paquete se toma como muestra
para determinar si el paquete crea un flujo nuevo.
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
max_vfs De 1 a 63 0 Este pametro añade compatibilidad con SR-IOV. Hace que el
controlador aumente al valor max_vfs de función virtual.
Si el valor es mayor que 0, forzará que el parámetro VMDq sea
igual a 1 o más.
NOTA: si el modo SR-IOV o VMDq está habilitado, el
filtrado de VLAN de hardware y la eliminación/inserción
de etiquetas de VLAN seguin habilitados. Elimine el
filtro de VLAN antiguo antes deadir el filtro de VLAN
nuevo. Por ejemplo:
ip link set eth0 vf 0 vlan 100
// establecer vlan 100 para VF 0
ip link set eth0 vf 0 vlan 0 //
eliminar vlan 100
ip link set eth0 vf 0 vlan 200
// establecer nuevo vlan 200
para VF 0
Este parámetro solo se usa en el kernel 3.7.x y
versiones anteriores. En el kernel 3.8.x y versiones
posteriores, utilice sysfs para habilitar las VF. Ades,
para las distribuciones Red Hat, este pametro solo se
utiliza en la versión 6.6 y posteriores. Para la versión 6.7
y posteriores, utilice sysfs. Por ejemplo:
#echo $num_vf_enabled >
/sys/class/net/$dev/device/sriov_numvfs
//enable VFs
#echo 0 > /sys/class/net/$dev/device/sriov_
numvfs //disable VFs
Los pametros del controlador se referencian según la
posición. Por tanto, si tiene un adaptador basado en 82599 de
doble puerto y desea N funciones virtuales por puerto, debe
especificar unmero para cada puerto con cada parámetro
separados por una coma.
Por ejemplo: modprobe ixgbe max_vfs=63,63
NOTA: si los adaptadores basados en 82598 y 82599
se han instalado en la misma máquina, debe tener
cuidado al cargar el controlador con los pametros. En
función de la configuración del sistema, mero de
ranuras, etc., es imposible predecir en todos los casos
nde estarían las posiciones en la línea de comandos
y el usuario tendrá que especificar el valor cero en esas
posiciones ocupadas por un puerto 82598.
Con el kernel 3.6, el controlador admite el uso simultáneo de
las funciones max_vfs y DCB, sujeto a las restricciones
descritas a continuación. Antes del kernel 3.6, el controlador
no admia el funcionamiento simultáneo de las funciones
max_vfs > 0 y DCB (varias clases de tráfico utilizan el control
de flujo de prioridad y la selección de transmisión ampliada).
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
Cuando se habilita DCB, el tráfico de la red se transmite y
recibe a través de varias clases de tfico (búferes de paquete
en la NIC). El tfico se asocia con una clase espefica en
función de la prioridad, que tiene un valor de 0 a 7 empleado
en la etiqueta VLAN. Si no se habilita SR-IOV, cada clase de
tráfico se asocia con un conjunto de parejas de colas con el
descriptor RX/TX. Elmero de parejas de colas para una
determinada clase de tfico depende de la configuración del
hardware. Si se habilita R-IOV, las parejas de colas con
descriptor se agrupan en grupos. A la función física (PF) y a
cada función virtual (VF) se les asigna un grupo de parejas de
colas con descriptor RX/TX. Si hay varias clases de tfico
configuradas (por ejemplo, DCB está habilitado), cada grupo
contiene una pareja de colas de cada clase de tfico. Cuando
se configura una sola clase de tfico en el hardware, los
grupos contienen varias parejas de colas de esta única clase
de tfico.
El número de VF que puede asignarse depende delmero
de clases de tráfico que se pueden habilitar. Elmero
configurable de clases de tráfico de cada VF habilitada es el
siguiente:
0 - 15 VF = Hasta 8 clases de tfico, en función
de la compatibilidad de los dispositivos
16 - 31 VF = Hasta 4 clases de tráfico
32 - 63 = 1 clase de tfico
Cuando se configuran las VF, a la PF se le asigna también un
grupo. La PF admite las funciones de DCB con la restricción de
que cada clase de tfico solo utilice una sola pareja de colas.
Si no se configura ninguna VF, la PF puede admitir varias
parejas de colas por clase de tráfico.
L2LBen De 0 a 1 1 (habilitado) Este parámetro controla el conmutador interno (bucle de
retorno L2 entre pf y vf). De forma predeterminada, el
conmutador está habilitado.
LRO De 0 a 1 0=desactivado, 1=activado
Large Receive Offload (LRO) es una técnica para aumentar el
flujo entrante de las conexiones de red de alto ancho de banda
al reducir la carga de la CPU. Se agregan varios paquetes
entrantes de un mismo flujo en un fer de mayor tamaño
antes de que pasen a la pila de red, lo cual reduce la cantidad
de paquetes que debe procesarse. LRO combina varias
tramas Ethernet en una misma recepción en la pila y de esta
manera se puede reducir el uso de CPU para las recepciones.
Esta técnica tambn se conoce como combinación de
recepción basada en hardware (HW RSC). Los adaptadores
basados en 82599, X540 y X550 admiten HW RSC. El
pametro LRO controla la habilitación de HW RSC.
Para comprobar si el controlador utiliza LRO, observe estos
contadores en ethtool:
l hw_rsc_aggregated: recuento del total de paquetes
que se combinaron
Nombre del
parámetro
Rango y
configuración
lidos
Valores por
defecto
Descripción
l hw_rsc_flushed: cantidad de paquetes que se
eliminaron de LRO
NOTA: IPv6 y UDP no son compatibles con LRO.
EEE De 0 a 1 0 = Deshabilita EEE
1 = Habilita EEE
Un vínculo entre dos dispositivos compatibles con EEE tend
como resultado cargas periódicas de datos seguidas por
periodos en los que el enlace se encontra en estado
inactivo. Este estado inactivo de bajo consumo (LPI) se admite
con velocidades de enlace de 1 Gbps y 10 Gbps.
NOTAS:
l La compatibilidad con EEE requiere negociación
automática. Ambos socios del enlace deben
admitir EEE.
l EEE no es compatible con todos los dispositivos
de red Intel® Ethernet ni con todas las
velocidades de enlace.
DMAC 0, 41-10000 Este pametro habilita o deshabilita la función de
combinación de DMA. Los valores se expresan en
microsegundos y establecen el tiempo interno de la
combinación de DMA. DMAC está disponible en adaptadores
Intel® basados en X550 (y posteriores).
DMA (acceso directo a memoria) permite al dispositivo de red
mover datos de paquete directamente a la memoria del
sistema, lo que reduce el uso de la CPU. Sin embargo, los
intervalos aleatorios y de frecuencia a los que llegan los
paquetes no permiten al sistema entrar en un estado de menor
consumo de energía. La combinación de DMA permite al
adaptador recoger paquetes antes de iniciar un evento DMA.
Esto puede elevar la latencia de red, pero también aumenta
las posibilidades de que el sistema entre en un estado de
menor consumo de energía.
Si activa la combinación de DMA, es posible que ahorre
energía con el kernel 2.6.32 y posterior. La combinación de
DMA debe estar habilitada en todos los puertos activos para
ahorrar energía de la plataforma.
InterruptThrottleRate (ITR) debe establecerse en Dynamic
(Dinámico). Cuando ITR=0, la combinación de DMA se
inhabilita automáticamente.
Hay un documento con instrucciones para configurar mejor su
plataforma en lagina web de Intel.
MDD De 0 a 1 1 (habilitado) El pametro Malicious Driver Detection (Detección de
controlador malicioso, MDD) solo es relevante para los
dispositivos que funcionen en modo SR-IOV. Cuando se
establece este pametro, el controlador detecta una unidad
VF e inhabilita sus colas TX/RX hasta que se reinicia.
Configuraciones adicionales
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende
de la distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en
/etc/modules.conf o /etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o
archivos de configuración. Muchas distribuciones de Linux se suministran con las herramientas necesarias para hacer
estos cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el
sistema, consulte la documentación de la distribución. Si durante este proceso se le solicita el nombre del controlador
o del módulo, ixgbe es el nombre del controlador base de Linux para la familia de adaptadores Intel® 10 Gigabit PCI
Express.
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que
se muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello,
escriba lo siguiente:
dmesg -n 8
NOTA: esta configuración no se guarda a tras de los reinicios.
Tramas jumbo
La compatibilidad con las Tramas jumbo se activa cambiando la MTU a un valor mayor al valor predeterminado de
1500 bytes. El valor máximo para la MTU es 9710. Utilice el comando ifconfig para aumentar el tamaño de la MTU. Por
ejemplo, introduzca lo siguiente, donde <x> es elmero de la interfaz:
ifconfig ethx mtu 9000 up
Esta configuración no se guarda entre reinicios. El cambio de configuración se puede hacer permanente agregando
MTU = 9000 al archivo /etc/sysconfig/network-scripts/ifcfg-eth<x> para RHEL o al archivo
/etc/sysconfig/network/<config_file> para SLES.
El valor máximo para la MTU para las tramas jumbo es 9710. Este valor coincide con el tamaño máximo de las tramas
jumbo 9728. Este controlador intenta utilizar varios búferes de tamaño degina para recibir cada paquete jumbo.
Se estima que esto ayuda a evitar los problemas de escasez defer al asignar los paquetes de recepción.
Para las conexiones de red basadas en 82599, si habilita las tramas jumbo en una función virtual (VF), las tramas
jumbo deben habilitarse antes en la función sica (PF). El ajuste de VF MTU no puede ser mayor que PF MTU.
NOTAS:
l Para habilitar las Tramas jumbo, aumente el tamaño de la MTU en la interfaz para que sea superior a
1500.
l El tamaño máximo de las Tramas jumbo es de 9728 bytes, con un tamaño correspondiente de MTU de
9710 bytes.
l Lardida de paquetes puede tener un mayor impacto en el rendimiento cuando se utilizan Tramas
jumbo. Si observa una caída en el rendimiento después de activar las Tramas jumbo, la activación del
control de flujo puede mitigar el problema.
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, acomo para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool.
La revisión más reciente de ethtool se encuentra en: http://sourceforge.net/projects/gkernel.
NAPI
En el controlador se admite NAPI (modo de sondeo Rx).
Para obtener s información sobre NAPI, consulte https://wiki.linuxfoundation.org/networking/napi.
Large Receive Offload (LRO)
Large Receive Offload (LRO) es una técnica para aumentar el flujo entrante de las conexiones de red de alto ancho
de banda al reducir la carga de la CPU. Se agregan varios paquetes entrantes de un mismo flujo en unfer de
mayor tamaño antes de que pasen a la pila de red, lo cual reduce la cantidad de paquetes que debe procesarse. LRO
combina varias tramas Ethernet en una misma recepción en la pila y de esta manera se puede reducir el uso de CPU
para las recepciones.
IXGBE_NO_LRO es una etiqueta que se utiliza en el momento de la compilación. Puede habilitarse en el momento de
la compilación para eliminar la compatibilidad para LRO del controlador. La etiqueta se utiliza agregando CFLAGS_
EXTRA="-DIXGBE_NO_LRO" en el archivo make cuando se lo compila.
make CFLAGS_EXTRA="-DIXGBE_NO_LRO" install
Para comprobar si el controlador utiliza LRO, observe estos contadores en ethtool:
l lro_flushed: elmero total de recepciones con LRO.
l lro_coal: elmero total de paquetes Ethernet combinados.
HW RSC
Los adaptadores basados en 82599 admiten la unión de recepción basada en hardware (RSC), que puede fusionar
varias tramas del mismo flujo TCP/IP IPv4 en una sola estructura que puede abarcar uno o más descriptores.
Funciona de forma similar a la técnica de descarga de recepción grande de software. De forma predeterminada, HW
RSC está habilitado y SW LRO no se puede utilizar para adaptadores basados en 82599 a menos que se inhabilite
HW RSC.
IXGBE_NO_HW_RSC es una etiqueta de compilación que puede habilitarse durante la compilación para eliminar la
compatibilidad con HW RSC desde el controlador. La etiqueta se utiliza agregando CFLAGS_EXTRA="-DIXGBE_NO_
HW_RSC" en el archivo make cuando se compila.
make CFLAGS_EXTRA="-DIXGBE_NO_HW_RSC" install
Para comprobar si el controlador utiliza HW RSC, examine el contador en ethtool:
hw_rsc_count - cuenta el número total de paquetes Ethernet que se estaban com-
binando.
rx_dropped_backlog
Cuando se encuentra en un modo que no es Napi (o interrupción), este contador indica que la pila está perdiendo
paquetes. Hay un pametro ajustable en la pila que permite ajustar el nivel de rezago. Recomendamos aumentar
netdev_max_backlog si el contador aumenta.
# sysctl -a |grep netdev_max_backlog
net.core.netdev_max_backlog = 1000
# sysctl -e net.core.netdev_max_backlog=10000
net.core.netdev_max_backlog = 10000
Control de flujo
El control de flujo viene deshabilitado de forma predeterminada. Para habilitarlo, utilice ethtool:
ethtool -A eth? autoneg off rx on tx on
NOTA: debe contar con un interlocutor de enlace con capacidad para el control de flujo.
Función anti-suplantación de identidad de MAC y VLAN
Cuando un controlador malicioso intenta enviar un paquete de suplantación de identidad, el hardware lo descarta y
no lo transmite. A continuación, manda una notificación de interrupción al controlador PF para informar del intento de
suplantación de identidad. Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente
mensaje al registro del sistema (use el comando "dmesg" para verlo):
ixgbe ethx: ixgbe_spoof_check: n spoofed packets detected
Donde x= elde la interfaz de PF y n= la VF que intentó realizar la suplantación de identidad.
NOTA: esta función puede deshabilitarse para una función virtual (VF) concreta.
Compatibilidad con RSS UDP
Esta función agrega un conmutador de APAGADO/ENCENDIDO para aplicar hash a determinados tipos de flujos. La
opción predeterminada está deshabilitada. NOTA: los paquetes fragmentados pueden llegar desordenados cuando
se configura la compatibilidad con RSS UDP.
Comandos y opciones de ethtool admitidos
-n --show-nfc
Recupera las configuraciones de clasificación del flujo entrante de la red.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6
Recupera las opciones de hash para el tipo de tfico de red especificado.
-N --config-nfc
Configura la clasificación del flujo entrante de la red.
rx-flow-hash tcp4|udp4|ah4|esp4|sctp4|tcp6|udp6|ah6|esp6|sctp6 m|v|t|s|d|f|n|r...
Configura las opciones de hash para el tipo de tfico de red especificado.
udp4 UDP en IPv4
udp6 UDP en IPv6
f hash en bytes 0 y 1 de la cabecera de la capa 4 del paquete rx.
n hash en bytes 2 y 3 de la cabecera de la capa 4 del paquete rx.
Problemas conocidos
NOTA: después de instalar el controlador, si su conexión de red Intel® Ethernet no funciona, compruebe que
ha instalado el controlador correcto. La Tecnología Intel® de gestión activa 2.0, 2.1 y 2.5 no se admite en
conjunción con el controlador de Linux.
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza
una dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el
controlador de la VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática
sobrevivirá a una recarga del controlador de la VF.
Incompatibilidad de LRO e iSCSI
LRO es incompatible con el tráfico de inicio o destino de iSCSI. Puede producirse un error irrecuperable cuando el
tráfico de iSCSI se recibe a tras del controlador ixgbe con LRO habilitada. Para resolver este problema, el
controlador debe desarrollarse e instalarse con:
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda a tras de los reinicios. El cambio de
configuración puede hacerse permanente si agrega la siguiente línea al archivo
/etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión
separados (ya sea en conmutadores diferentes o en un conmutador con
particiones para VLAN).
Problema de paquete perdido en la prueba de presión de UDP
Bajo la presión de UDP de paquetes pequeños con el controlador ixgbe, es posible que el sistema pierda paquetes
UDP debido a que los búferes de calo están llenos. La configuración de las variables de control de flujo alnimo
puede solucionar el problema. También puede intentar aumentar los tamaños defer predeterminados del kernel
cambiando los valores en /proc/sys/net/core/rmem_default y rmem_max.
Los restablecimientos del puerto de Cisco Catalyst 4948-10GE pueden hacer que el
conmutador apague los puertos
El hardware basado en 82598 puede restablecer el enlace con rapidez y cuando se conecta a algunos conmutadores
los restablecimientos rápidos en el controlador pueden hacer que el puerto del conmutador se aísle debido a un "link
flap". Esta situación se indica mediante una luz de enlace de color amarillo en vez de verde. Distintas operaciones
pueden ocasionar este problema, por ejemplo, ejecutar varias veces comandos ethtool que provocan un
restablecimiento.
Una posible solución consiste en usar el comando de Cisco IOS "no errdisable detect cause all" desde el indicador de
Global Configuration, que permite al conmutador mantener en funcionamiento las interfaces, independientemente de
los errores.
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores. Estos errores son provocados por la
forma en que el kernel de Linux informa estas condiciones de mucha exigencia.
DCB: la descarga de segmentación genérica habilitada causa problemas de asig-
nación de banda ancha
Para que DCB funcione correctamente, es preciso inhabilitar la descarga de segmentación genérica (GSO), también
conocida como TSO de software, mediante ethtool. Como el hardware es compatible con TSO (descarga de
segmentación de hardware), GSO no funcionará de forma predeterminada. Es posible consultar el estado de GSO con
ethtool mediante ethtool -k ethX. Cuando se utilizan conexiones de red basadas en 82598, el controlador ixgbe solo
admite 16 colas en una plataforma con s de 16 cleos.
Debido a limitaciones conocidas del hardware, RSS solo puede filtrar un máximo de 16 colas de recepción.
Las conexiones de red basadas en 82599, X540 y X550 admiten hasta 64 colas como máximo.
Rendimiento inferior al esperado
Algunas ranuras PCIe x8 están configuradas en realidad como ranuras x4. Estas ranuras tienen un ancho de banda
insuficiente para la velocidad de línea de entera con dispositivos de dos y cuatro puertos. Además, si coloca un
adaptador preparado para PCIe de tercera generación en una ranura PCIe de segunda generación, no obtendrá todo
el ancho de banda completo. El controlador detecta esta situación y escribe el mensaje siguiente en el registro del
sistema:
"PCI-Express bandwidth available for this card is not sufficient for optimal performance. (El ancho de banda disponible
de PCI-Express para esta tarjeta no es suficiente para obtener un rendimiento óptimo.) For optimal performance a x8
PCI-Express slot is required. (Para conseguir un rendimiento óptimo es necesaria una ranura x8 PCI-Express.)"
Si se produce este error, trasladar el adaptador a una ranura x8 PCIe de tercera generación verdadera soluciona el
problema.
ethtool puede mostrar el módulo de fibra SFP+ incorrectamente como cable de cone-
xión directa
Debido a las limitaciones de kernel, el tipo de puerto solo se puede visualizar correctamente en el kernel 2.6.33 o
superior.
En Redhat 5.4, el sistema se puede bloquear al cerrar la ventana de SO invitado después de cargar/descargar el
controlador de la función física (PF). No elimine el controlador ixgbe de Dom0 mientras se asignan funciones virtuales
(VF) a los SO invitados. Primero, las VF deben utilizar el comando xm "pci-detach" para realizar una conexión en
funcionamiento del dispositivo VF en la VM que tiene asignada o, en caso contrario, cerrar la VM.
Descargar el controlador de la función física (PF) puede provocar pánico del kernel o el reinicio del sistema cuando la
VM está activada y tiene la VF cargada. En los kernels Linux previos a la versión 3.2, descargar el controlador de
función física (PF) provoca que el sistema se reinicie cuando la VM está activada y tiene la VF cargada. No descargue
el controlador PF (ixgbe) mientras las VF estén asignadas a invitados.
La ejecución del comando ethtool -t ethX causa una interrupción entre la PF y el
cliente de prueba
Cuando hay VF activas, "ethtool -t" solo ejecutará la prueba del enlace. El controlador tambn registrará en el syslog
que las VF deben apagarse para ejecutar una prueba de diagnóstico completa.
No se puede obtener concesión DHCP en el inicio con RedHat
En el caso de configuraciones donde el proceso de negociación automática tarde más de 5 segundos, el script de
inicio puede fallar con el siguiente mensaje:
"ethX: failed. No link present. Check cable?"
Este error puede producirse aunque la presencia del enlace pueda confirmarse mediante ethtool ethx. En este caso,
intente establecer "LINKDELAY=30" en /etc/sysconfig/network-scripts/ifdfg-ethx.
El mismo problema puede producirse durante un arranque de red (a tras de PXE) en distribuciones RedHat que
utilizan el script dracut:
"Warning: No carrier detected on interface <interface_name>" (Advertencia: No se ha detectado ninn dispositivo
portador en la interfaz <interface_name>)
En este caso, agregue "rd.net.timeout.carrier=30" en la línea de comandos del kernel.
NOTA: el tiempo de enlace puede variar. Ajuste el valor LINKDELAY de la forma
correspondiente.
Controlador ixgbevf de Linux* para los adaptadores Inte10
Gigabit para servidor
Visión general de ixgbevf
SR-IOV es compatible con el controlador ixgbevf, que debe cargarse tanto en el host como en las máquinas virtuales.
Este controlador admite las versiones de kernel emisor 2.6.30 (o superior) x86_64.
El controlador ixgbevf es compatible con los dispositivos con función virtual 82599, X540, y X550, que solo pueden
activarse en kernels que admitan SR-IOV. SR-IOV requiere la compatibilidad correcta con la plataforma y el SO.
El controlador ixgbevf requiere la versión 2.0 o superior del controlador ixgbe. El controlador ixgbevf admite funciones
virtuales generadas por el controlador ixgbe con un valor max_vfs de 1 o superior. Para obtener más información
sobre el parámetro max_vfs, consulte la sección sobre el controlador ixgbe.
El SO invitado que carga el controlador ixgbevf debe ser compatible con interrupciones MSI-X.
Actualmente, el controlador solo es compatible como dulo cargable. Intel no ofrece modificaciones para el digo
fuente del kernel que permitan enlazar el controlador de forma estática. Si desea más información sobre los requisitos
de hardware, consulte la documentación incluida con el adaptador Intel 10GbE. Todos los requisitos del hardware que
se incluyen en la lista se aplican al uso con Linux.
Adaptadores compatibles con el controlador base ixgbevf de Linux
Los siguientes adaptadores de red de Intel son compatibles con el controlador ixgbevf de Linux en esta versión y
pueden admitir hasta 63 funciones virtuales por puerto.
l Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador Intel® Ethernet 10G 2P X540-t
l Adaptador Intel® Ethernet 10G 2P X550-t
l Intel® Ethernet 10G 4P X550 rNDC
l Intel® Ethernet 10G 4P X550/I350 rNDC
l Intel® Ethernet 10G 4P X540/I350 rNDC
l Intel® Ethernet 10G 4P X520/I350 rNDC
l Intel® Ethernet 10G 2P X520-k bNDC
l Adaptador Intel® Ethernet 10G 2P X520
l Intel® Ethernet 10G X520 LOM
Sistemas operativos preparados para SR-IOV
l Citrix XenServer 6.0 con Red Hat Enterprise Linux
l VMWare* ESXi* 6.x
l Red Hat* Enterprise Linux* (RHEL) 8.1
l Red Hat* Enterprise Linux* (RHEL) 7.7
l Novell* SUSE* Linux Enterprise Server (SLES) 15 SP1
Compilacn e instalación
Para habilitar SR-IOV en su sistema:
1. Aserese de que tanto la virtualización como SR-IOV estén habilitadas en la BIOS.
2. Instale el sistema operativo Linux. Para comprobar si el controlador KVM está cargado, escriba: lsmod |
grep -i kvm
3. Cargue el controlador básico de Linux mediante el comando modprobe: modprobe ixgbe option max_
vfs=xx,yy
xx y yy son elmero de funciones virtuales que desea crear. Debe especificar unmero para cada puerto
con cada parámetro separado con una coma. Por ejemplo, xx es elmero de funciones virtuales para el
puerto 1; mientras que yy lo es para el puerto 2. Puede crear hasta 63 funciones por puerto.
4. Compile e instale el controlador ixgbevf para SR-IOV. Este se carga contra las funciones virtuales creadas.
NOTA: para VLAN, hay un límite de 32 VLAN compartidas en total en 1 o más funciones virtuales.
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'.
Reemplace <nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del digo fuente del kernel instalado. Si acaba de
recompilar el kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/ixgbevf" o "/usr/local/src/ixgbevf".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
tar zxf ixgbevf-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es el mero de versión del archivo tar del controlador:
cd ixgbevf-<x.x.x>/src/
4. Compile el módulo del controlador:
make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/ixgbevf/ixgbevf.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas. Podan ser diferentes para
las distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se
incluye en el archivo tar del controlador.
5. Elimine el controlador antiguo:
rmmod ixgbevf
6. Instale el módulo con el comando modprobe:
modprobe ixgbevf <parámetro>=<valor>
7. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx>
es el nombre de interfaz:
ifconfig <ethx> <dirección_IP> netmask <netmask> up
8. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM ixgbevf existentes que haya instalados actualmente en el sistema. Estas
actualizaciones son proporcionadas por SuSE en la versión SLES. Si no hay ningún RPM en el sistema, KMP no se
instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbevf-1.3.8.6-1.x86_64.rpm: ixgbevf es el nombre del componente; 1.3.8.6-1 es la versión del
componente, y x86_64 es el tipo de arquitectura.
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM
KMP incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión del ker-
nel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: ixgbevf es el nombre del componente;
default es el tipo de kernel; 1.3.8.6 es la versión del componente; 2.6.27.19_5-1 es la versión del kernel, y x86_64 es
el tipo de arquitectura.
Para instalar el RPM KMP, escriba los dos comandos siguientes:
rpm -i <nombre_de_archivo rpm>
rpm -i <nombre_de_archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM ixgbevf KMP, escriba lo siguiente:
rpm -i intel-ixgbevf-1.3.8.6-1.x86_64.rpm
rpm -i intel-ixgbevf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los
RPM incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-ixgbevf-2.3.4-1.x86_64.rpm:
l ixgbevf es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
rpm -i <nombre_de_archivo rpm>
Por ejemplo, para instalar el paquete de RPM ixgbevf KMOD, escriba lo siguiente:
rpm -i kmod-ixgbevf-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la
línea de comandos junto con el comando modprobe con esta sintaxis:
modprobe ixgbevf [<opción>=<VAL1>,<VAL2>,...]
Por ejemplo:
modprobe ixgbevf InterruptThrottleRate=16000,16000
Generalmente, el valor predeterminado de cada pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
InterruptThrottleRate 0, 1, de 956 a
488.281
(0=desactivado,
1=dinámico)
8000 El controlador puede limitar elmero de interrupciones por
segundo que el adaptador genera para los paquetes
entrantes. Lo hace escribiendo un valor en el adaptador que se
basa en el número máximo de interrupciones que el adaptador
generará por segundo.
La configuración de InterruptThrottleRate en un valor igual o
superior a 100 programará al adaptador para que envíe, como
máximo, esa cantidad de interrupciones por segundo, aunque
ingresen más paquetes. De esta manera se reduce la carga de
las interrupciones en el sistema y puede reducirse el uso de
CPU en condiciones de mucha carga; sin embargo, se
aumentará la latencia dado que los paquetes no se procesan
con tanta rapidez.
El comportamiento predeterminado del controlador supuso
anteriormente un valor estático de InterruptThrottleRate de
8000, que proporciona un buen valor para todo tipo de tfico
remanente pero que es deficiente en términos de
funcionamiento y latencia de paquetes pequos. No obstante,
el hardware puede procesar muchos más paquetes pequeños
por segundo y por este motivo se implementó un algoritmo de
moderación adaptable de interrupciones.
El controlador cuenta con un modo adaptable (pametro 1) en
que ajusta dinámicamente el valor de InterruptThrottleRate
según el tráfico que recibe. Después de determinar el tipo de
tráfico entrante en el último periodo, ajustará el valor de
InterruptThrottleRate a uno adecuado para ese tipo de tfico.
El algoritmo clasifica al tfico entrante por intervalo en
categorías. Una vez determinada la categoría, se ajusta el valor
de InterruptThrottleRate según el tipo de tráfico. Hay tres
categorías definidas: "Tfico de gran volumen", para las
grandes cantidades de paquetes de tamaño normal; "Baja
latencia", para las cantidades reducidas de tráfico y/o un
porcentaje importante de paquetes pequos, y "Mínima
latencia", para paquetes casi totalmente pequos o tfico
mínimo.
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
En el modo conservador dinámico, el valor de
InterruptThrottleRate se configura en 4000 para el tráfico
comprendido en la categoa "Tráfico de gran volumen". Si el
tráfico genera una "Baja latencia" o "Mínima latencia", el valor
de InterruptThrottleRate aumenta gradualmente hasta alcanzar
20 000. Este modo predeterminado es adecuado para la
mayoría de aplicaciones.
En situaciones en las que se requiere una latencia baja, como
ocurre con la computación en clúster o en malla, el algoritmo
puede reducir la latencia en mayor medida cuando
InterruptThrottleRate se establece en modo 1. En este modo,
InterruptThrottleRate aumenta gradualmente hasta alcanzar
70 000 para el tfico de "Latencia mínima".
Si se configura el valor InterruptThrottleRate en 0, se
desactiva la moderación de interrupciones y es posible que
se mejore la latencia de los paquetes pequeños; sin embargo,
este valor, en general, no es adecuado para el tfico de gran
volumen.
NOTAS:
l la regulación dinámica de interrupciones solo se
puede aplicar a adaptadores que funcionen en
modo MSI o de interrupción tradicional y que
utilicen una única cola de recepción.
l cuando ixgbevf se carga con la configuración
predeterminada y hay varios adaptadores en uso
de manera simultánea, es posible que la
utilización de la CPU aumente de manera no
lineal. Para limitar el uso de la CPU sin afectar el
rendimiento general, se recomienda cargar el
controlador como se muestra a continuación:
modprobe ixgbevf
InterruptThrottleRate=3000,
3000,3000
Así se establece el valor de InterruptThrottleRate
en 3000 interrupciones/seg. para la primera,
segunda y tercera instancias del controlador. El
rango de 2000 a 3000 interrupciones por
segundo funciona en la mayoría de los sistemas
y es un buen punto de inicio, pero el valor óptimo
depende de la plataforma. Si el uso de la CPU
no es una preocupación, utilice la configuración
predeterminada del controlador.
NOTAS:
l Para obtener s información sobre el pametro InterruptThrottleRate, consulte la nota de aplicación
en http://www.intel.com/design/network/applnots/ap450.htm.
l Un descriptor describe unfer de datos y sus atributos relacionados. Esta información es accesible
desde el hardware.
Configuraciones adicionales
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende
de la distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en
/etc/modules.conf o /etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o
archivos de configuración. Muchas distribuciones de Linux se suministran con las herramientas necesarias para hacer
estos cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el
sistema, consulte la documentación de la distribución. Si, durante este proceso, se le solicita el nombre del
controlador o del módulo, ixgbevf es el nombre del controlador base de Linux para la familia de adaptadores Intel® 10
Gigabit PCI Express.
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que
se muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello,
escriba lo siguiente:
dmesg -n 8
NOTA: esta configuración no se guarda a tras de los reinicios.
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, acomo para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool.
La revisión más reciente de ethtool se encuentra en: http://sourceforge.net/projects/gkernel.
MACVLAN
ixgbevf admite MACVLAN en los kernels que incluyan esta función. Para probar la compatibilidad del kernel con
MACVLAN, compruebe si el controlador MACVLAN está cargado. El usuario puede ejecutar "lsmod | grep
macvlan" para ver si el controlador MACVLAN está cargado o bien ejecutar "modprobe macvlan" para intentar
cargarlo.
Es posible que requiera actualizar a una versión más reciente del paquete iproute2 para obtener compatibilidad con
MACVLAN mediante el comando "ip".
NAPI
En el controlador ixgbevf se admite NAPI (modo de sondeo Rx) y siempre está habilitado. Para obtener más
información sobre NAPI, consulte https://wiki.linuxfoundation.org/networking/napi.
Problemas conocidos
NOTA: después de instalar el controlador, si su conexión de red Intel no funciona, compruebe que ha instalado
el controlador correcto.
Compilación de controladores
Es probable que se produzca el error siguiente cuando intente compilar el controlador mediante la ejecución de make
install: "Linux kernel source not configured - missing version.h" (No se configu el código fuente del kernel Linux, falta
version.h).
Para resolver este problema, cree el archivo version.h. Para ello, vaya al árbol de origen de Linux y escriba:
make include/linux/version.h
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
(esto solo funcionará si la versión del kernel es superior a la 2.4.5), o instale las interfaces en dominios de difusión
separados.
NOTA: esta configuración no se guarda a tras de los reinicios. El cambio de configuración puede hacerse
permanente si agrega la línea:
net.ipv4.conf.all.arp_filter= 1 al archivo /etc/sysctl.conf
o bien
instale las interfaces en dominios de difusión separados (ya sea en conmutadores diferentes o
en un conmutador con particiones para VLAN).
Errores de asignación de gina de recepción
Fallo de asignación degina. Pueden producirse errores order:0 en condiciones de mucha exigencia con la versión
de kernel 2.6.25 y superiores. Estos errores son provocados por la forma en que el kernel de Linux informa estas
condiciones de mucha exigencia.
Puede que el host se reinicie tras quitar la PF si la VF está activa en el invitado
Si se utilizan versiones de kernel anteriores a 3.2, no descargue el controlador de PF con VF activas. De lo contrario,
las VF dejarán de funcionar hasta que recargue el controlador de PF y puede producirse un reinicio espontáneo del
sistema.
Controlador i40e de Linux para la familia de controladores Intel
X710 Ethernet
Visión general de i40e
NOTA: el kernel asume que TC0 está disponible y deshabilitará el control de flujo de prioridad (PFC) en el
dispositivo si TC0 no está disponible. Para solucionar este problema, asegúrese de que TC0 se ha habilitado
al configurar DCB en el conmutador.
NOTA: si el enlace de la función física (PF) está inactivo, puede forzar la activación del enlace (desde la PF
host) en cualquier función virtual (VF) enlazada a la PF. Tenga en cuenta que esta solución requiere
compatibilidad del kernel (kernel Redhat 3.10.0-327 o posterior, kernel emisor 3.11.0 o posterior, y
compatibilidad de espacio de usuario iproute2 asociado). Si el comando siguiente no funciona, puede que no
sea compatible con su sistema. El siguiente comando fuerza la activación del enlace en la VF 0 enlazada a la
PF eth0:
ip link set eth0 vf 0 state enable
NOTA: no descargue el controlador de un puerto si hay una función virtual (VF) con una máquina virtual (VM)
activa enlazada a este. Esto ha que el puerto parezca que se bloquea. Una vez que la quina virtual se
apaga, o bien libera la VF de cualquier otra manera, el comando se completará.
NOTA: en un entorno virtualizado, en aquellos adaptadores de servidor Intel® que son compatibles con SR-
IOV, es posible que la función virtual (VF) esté sujeta a comportamientos malintencionados. No se esperan las
tramas de dos capas generadas por software, como IEEE 802.3x (control de flujo de enlace), IEEE 802.1Qbb
(control de flujo basado en la prioridad) y otros de este tipo, y se puede reducir el tfico entre el host y el
conmutador virtual, lo que disminuye el rendimiento. Para resolver este problema y garantizar el aislamiento
de flujos de tfico no deseados, configure todos los puertos habilitados para SR-IOV para el etiquetado VLAN
desde la interfaz administrativa de la PF. Esta configuración permite descartar tramas inesperadas y
potencialmente malintencionadas.
El controlador básico i40e Linux* para la familia de controladores X710/XL710 Ethernet de adaptadores es compatible
con los kernel 2.6.32 y s recientes e incluye la compatibilidad con los sistemas x86_64 compatibles con Linux.
Ya están disponibles las siguientes funciones en los kernel compatibles:
l Encapsulación de VXLAN
l VLAN nativas
l Unión de canales (creación de equipos)
l Descarga de recepción gerica
l Habilitación de puentes de centro de datos (Data Center Bridging)
La creación de equipos de adaptadores se implementa por medio del módulo de unión de canales de Linux. Esto se
incluye en los kernel compatibles de Linux. La documentación de la unión de canales se puede encontrar en el origen
del kernel de Linux: /Documentation/networking/bonding.txt
Use ethtool, lspci o el comando ip de iproute2 para obtener información sobre el controlador. Se pueden encontrar
instrucciones para actualizar ethtool en la sección Configuraciones adicionales.
Dispositivos compatibles con el controlador base i40e de Linux
Los siguientes adaptadores de red de Intel son compatibles con este controlador:
l Intel® Ethernet 10G 4P X710-k bNDC
l Intel® Ethernet 10G 2P X710-k bNDC
l Intel® Ethernet 10G X710-k bNDC
l Adaptador de Ethernet de red convergente Intel® X710
l Adaptador de Ethernet de red convergente Intel® X710-T
l Intel® Ethernet 10G 4P X710/l350 rNDC
l Intel® Ethernet 10G 4P X710 SFP+ rNDC
l Intel® Ethernet 10G X710 rNDC
l Intel® Ethernet Server Adapter X710-DA2 para OCP para servidores
l Intel® Ethernet 10G 2P X710 OCP
l Intel® Ethernet 10G 4P X710 OCP
l Intel® Ethernet 10G 2P X710-T2L-t OCP
l Adaptador Intel® Ethernet 10G 2P X710-T2L-t
l Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
l Adaptador de Ethernet de red convergente Intel® XL710-Q2
l Adaptador Intel® Ethernet 25G 2P XXV710
l Intel® Ethernet 25G 2P XXV710 Mezz
Dispositivos SFP+ con dispositivos ópticos conectables
NOTA: en los adaptadores de fibra SFP+, si utiliza "ifconfig down", elser se desactiva. Utilice "ifconfig
up" para activar elser.
Consulte Dispositivos SFP+ y QSFP+ para obtener más información.
Compilacn e instalación
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'.
Reemplace <nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del digo fuente del kernel instalado. Si acaba de
recompilar el kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/i40e" o "/usr/local/src/i40e".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
tar zxf i40e-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es el mero de versión del archivo tar del controlador:
cd i40e-<x.x.x>/src/
4. Compile el módulo del controlador:
make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/i40e/i40e.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas. Podan ser diferentes para
las distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se
incluye en el archivo tar del controlador.
5. Elimine el controlador antiguo:
rmmod i40e
6. Instale el módulo con el comando modprobe:
modprobe i40e <parámetro>=<valor>
NOTA: para RHEL 7.5 o versiones posteriores, debe descargar el controlador i40iw antes de eliminar
los controladores i40e más antiguos.
7. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx>
es el nombre de interfaz:
ifconfig <ethx> <dirección_IP> netmask <netmask> up
8. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM i40e existentes que haya instalados actualmente en el sistema. Estas actualizaciones
son proporcionadas por SuSE en la versión SLES. Si no hay ningún RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-i40e-1.3.8.6-1.x86_64.rpm: i40e es el nombre del componente; 1.3.8.6-1 es la versión del
componente, y x86_64 es el tipo de arquitectura.
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM
KMP incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión del ker-
nel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: i40e es el nombre del componente; default es
el tipo de kernel; 1.3.8.6 es la versión del componente; 2.6.27.19_5-1 es la versión del kernel, y x86_64 es el tipo de
arquitectura.
Para instalar el RPM KMP, escriba los dos comandos siguientes:
rpm -i <nombre_de_archivo rpm>
rpm -i <nombre_de_archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM i40e KMP, escriba lo siguiente:
rpm -i intel-i40e-1.3.8.6-1.x86_64.rpm
rpm -i intel-i40e-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los
RPM incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-i40e-2.3.4-1.x86_64.rpm:
l i40e es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
rpm -i <nombre_de_archivo rpm>
Por ejemplo, para instalar el paquete de RPM i40e KMOD, escriba lo siguiente:
rpm -i kmod-i40e-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
En general, ethtool y otros comandos específicos del sistema operativo se utilizan para configurar los pametros
modificables por el usuario desps de que se cargue el controlador. El controlador i40e solo es compatible con el
pametro de kernel max_vfs en los kernel más antiguos que no cuentan con la interfaz sysfs estándar. El otro
pametro del módulo es el pametro de depuración que puede controlar el nivel de detalle de registro
predeterminado del controlador.
Si el controlador está montado como un módulo, los siguientes pametros optativos se utilizan introduciéndolos en la
línea de comandos junto con el comando modprobe con esta sintaxis:
modprobe i40e [<opcn>=<VAL1>]
Por ejemplo:
modprobe i40e max_vfs=7
Generalmente, el valor predeterminado de cada pametro es el recomendado, a no ser que se indique lo contrario.
La tabla siguiente contiene los pametros y los valores posibles para los comandos modprobe:
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
max_vfs De 1 a 63 0 Este parámetro añade compatibilidad con SR-IOV. Hace que el
controlador aumente al valor max_vfs de función virtual.
NOTAS:
l Este parámetro solo se usa en el kernel 3.7.x y versiones
anteriores. En el kernel 3.8.x y versiones posteriores,
utilice sysfs para habilitar las VF. Ades, para las
distribuciones Red Hat, este pametro solo se utiliza en
la versión 6.6 y posteriores. Para la versión 6.7 y
posteriores, utilice sysfs. Por ejemplo:
#echo $num_vf_enabled >
/sys/class/net/$dev/device/sriov_numvfs
//enable VFs
#echo 0 > /sys/class/net/$dev/device/sriov_numvfs
//disable VFs
l Si el modo SR-IOV está habilitado, el filtrado de VLAN de
hardware y la eliminación/inserción de etiquetas de
VLAN seguirán habilitados. Elimine el filtro de VLAN
antiguo antes de adir el filtro de VLAN nuevo. Por
ejemplo:
ip link set eth0 vf 0 vlan 100
// set vlan 100 for VF 0
ip link set eth0 vf 0 vlan 0
// Delete vlan 100
ip link set eth0 vf 0 vlan 200
// set a new vlan 200 for VF 0
Los pametros del controlador se referencian según la
posición. Por tanto, si tiene un adaptador de doble puerto o más
de un adaptador en el sistema, y desea N funciones virtuales por
puerto, debe especificar unmero para cada puerto con cada
pametro separado por una coma. Por ejemplo:
modprobe i40e max_vfs=4
Esto genera 4 VF en el primer puerto.
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
modprobe i40e max_vfs=2,4
Esto genera 2 VF en el primer puerto y 4 VF en el segundo
puerto.
Tenga cuidado al cargar el controlador con estos parámetros. En
función de la configuración del sistema, elmero de ranuras,
etc., es imposible predecir en todos los casos dónde estarán las
posiciones en la línea de comandos.
Ni el controlador ni el dispositivo controlan cómo se asignan las
VF en el espacio de configuración. El diseño del bus varia en
función del sistema operativo. En los sistemas operativos
compatibles, puede comprobar sysfs para encontrar la
asignación.
Algunas configuraciones de hardware admiten menos instancias
de SR-IOV, ya que todo el controlador XL710 (todas las
funciones) está limitado a 128 interfaces de SR-IOV en total.
Paquete de
dirección de
etiqueta VLAN
Le permite enviar todos los paquetes con una etiqueta VLAN
específica a una determinada función virtual (VF) de SR-IOV.
Además, esta función le permite designar una determinada VF
como de confianza, y permite que esta VF de confianza solicite
el modo promiscuo selectivo en la función sica (PF).
Para establecer una VF como de confianza o no de confianza,
introduzca el comando siguiente en el hipervisor:
#ip link set dev eth0 vf 1 trust [on|off]
Una vez que la VF se ha designado como de confianza, utilice
los siguientes comandos en la VM para establecer la VF en
modo promiscuo.
Para establecer todo en el modo promiscuo: #ip link set eth2
promisc on
Donde eth2 es una interfaz de VF en la VM
Para multidifusión promiscua:
#ip link set eth2 allmulticast on
Donde eth2 es una interfaz de VF en la VM
NOTA: de forma predeterminada, el comando ethtool priv-
flag vf-true-promisc-support está establecido en "off"
(Desactivado), lo que significa que el modo promiscuo
para la VF será limitado. Para establecer el modo
promiscuo para la VF en verdaderamente promiscuo y
permitir que la VF vea todo el tfico de entrada, utilice el
comando siguiente.
#ethtool -set-priv-flags p261p1 vf-true-promisc-support on
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
El comando vf-true-promisc-support priv-flag no habilita el
modo promiscuo, sino que designa qué tipo de modo
promiscuo (limitado o verdadero) obtendrá al habilitar el
modo promiscuo mediante los comandos de enlace ip
anteriores. Tenga en cuenta que esta es una
configuración global que afecta a todo el dispositivo. Sin
embargo, el comando vf-true-promisc-support priv-flag
solo se expone a la primera PF del dispositivo. La PF
permanece en modo promiscuo limitado (a menos que se
encuentre en modo de MFP) independientemente del
ajuste vf-true-promisc-support.
A continuación, agregue una interfaz VLAN en la interfaz de la
VF.
#ip link add link eth2 name eth2.100 type vlan id 100
Tenga en cuenta que el orden en el que establece la VF en
modo promiscuo y agrega la interfaz VLAN no importa (puede
hacer cualquiera de las acciones primero). El resultado final de
este ejemplo es que la VF obtend todo el tfico etiquetado
con VLAN 100.
Intel® Ethernet
Flow Director
NOTA: los pametros de Flow Director solo se admiten
en versiones de kernel 2.6.30 o posteriores. El control de
flujo en el modo de 1 Gbps en estos dispositivos puede
llevar a detenciones de la transmisión.
Flow Director realiza las siguientes tareas:
l Dirige los paquetes de recepción según sus flujos a
distintas colas.
l Permite un control estricto al enrutar un flujo en la
plataforma.
l Empareja flujos y núcleos de CPU para conseguir
afinidad de flujo.
l Admite varios parámetros para realizar una clasificación
de flujos flexible y equilibrio de carga (solo en el modo
SFP).
NOTAS:
l Un script incluido (set_irq_affinity) automatiza la
configuración de IRQ en afinidad de CPU.
l El controlador i40e de Linux admite los siguientes
tipos de flujo: IPv4, TCPv4 y UDPv4. Para un
determinado tipo de flujo, admite combinaciones
válidas de direcciones IP (origen o destino) y
puertos UDP/TCP (origen y destino). Por ejemplo,
puede proporcionar solo una dirección IP de
origen, una dirección IP de origen y un puerto de
destino, o cualquier combinación de uno o más de
estos cuatro pametros.
l El controlador i40e de Linux le permite filtrar el
tráfico en función de un desplazamiento y un
patrón de dos bytes flexible definidos por el
usuario mediante el uso de ethtool user-def y los
campos de máscara. Solo los tipos de flujo L3 y L4
son compatibles para los filtros flexibles definidos
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
por el usuario. Para un determinado tipo de flujo,
debe borrar todos los filtros de Flow Director antes
de cambiar el conjunto de entrada (para ese tipo
de flujo).
Otros comandos de ethtool:
Para habilitar o deshabilitar Flow Director
ethtool -K ethX ntuple <on|off>
Si deshabilita los filtros ntuple, todos los filtros programados por
el usuario desaparecen de la caché del controlador y del
hardware. Debe volver a crear los filtros cuando ntuple se haya
habilitado de nuevo.
Para agregar un filtro que dirige el paquete a la cola 2, utilice la
opción -U o -N. Por ejemplo:
# ethtool -N ethX flow-type tcp4 src-ip
192.168.10.1 dst-ip \ 192.168.10.2 src-port 2000
dst-port 2001 action 2 [loc 1]
Para establecer un filtro utilizando solo las direcciones IP de
origen y de destino:
# ethtool -N ethX flow-type tcp4 src-ip
192.168.10.1 dst-ip \
192.168.10.2 action 2 [loc 1]
Para establecer un filtro basado en un patrón y un
desplazamiento definidos por el usuario:
# ethtool -N ethX flow-type tcp4 src-ip
192.168.10.1 dst-ip \
192.168.10.2 user-def 0x4ffff action 2 [loc 1]
donde el valor del campo user-def (0x4ffff) contiene el
desplazamiento (4 bytes) y el patrón (0xffff). Esto se describe con
más detalle en la sección Filtros Sideband Perfect.
Filtro ATR (Application Targeted Routing) Perfect:
ATR está habilitado de forma predeterminada cuando el kernel
está en el modo de cola ltiple TX. Seade una regla de
filtrado de Flow Director ATR cuando un flujo TCP-IP comienza y
se elimina cuando el flujo termina. Cuando se añade una regla
de Flow Director TCP-IP de ethtool (filtro Sideband), el
controlador desactiva ATR. Para volver a habilitar ATR el
usuario puede deshabilitar Sideband con la opción -K de
ethtool. Si Sideband se vuelve a habilitar después de esto, ATR
permanecerá habilitado hasta que se añada un flujo TCP-IP.
Filtros Sideband Perfect
Los filtros Sideband Perfect se usan para dirigir el tfico que
coincide con unas funciones especificadas. Están habilitadas a
través de la interfaz ntuple de ethtool. Para agregar un nuevo
filtro, use el comando siguiente:
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
ethtool -U <device> flow-type <type> src-ip <ip>
dst-ip <ip> src-port <port> dst-port <port> action
<queue>
Donde:
<device>: el dispositivo Ethernet que se va a programar
<type>: puede ser ip4, tcp4, udp4 o sctp4
<ip>: la dirección IP que coincida
<port>: elmero de puerto que coincida
<queue>: la cola hacia la que se va a dirigir el tfico (-1
descarta el tfico coincidente)
Utilice el siguiente comando para mostrar todos los filtros
activos:
ethtool -u <device>
Utilice el siguiente comando para eliminar un filtro:
ethtool -U <device> delete <N>
<N> es el id de filtro que se muestra al imprimir todos los filtros
activos, y también puede haberse especificado mediante "loc
<N>" al agregar el filtro.
En el siguiente ejemplo se empareja el tfico TCP enviado
desde 192.168.0.1, puerto 5300, dirigido a 192.168.0.5, puerto
80, y lo envía a la cola 7:
ethtool -U enp130s0 flow-type tcp4 src-ip
192.168.0.1 dst-ip 192.168.0.5 src-port 5300 dst-
port 7 action 7
Para cada tipo de flujo, todos los filtros programados deben
tener el mismo conjunto de entrada coincidente. Por ejemplo, la
emisión de los dos comandos siguientes es aceptable:
ethtool -U enp130s0 flow-type ip4 src-ip
192.168.0.1 src-port 5300 action 7
ethtool -U enp130s0 flow-type ip4 src-ip
192.168.0.5 src-port 55 action 10
La emisión de los dos próximos comandos, sin embargo, no es
aceptable, ya que el primero especifica scr-ip y el segundo
especifica dst-ip:
ethtool -U enp130s0 flow-type ip4 src-ip
192.168.0.1 src-port 5300 action 7
ethtool -U enp130s0 flow-type ip4 dst-ip
192.168.0.5 src-port 55 action 10
El segundo comando falla con un error. Puede programar
varios filtros con los mismos campos, utilizando diferentes
valores; pero en un dispositivo, no puede programar dos filtros
tcp4 con diferentes campos coincidentes.
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
La coincidencia en una subporción de un campo no es
compatible con el controlador i40e, por lo que los campos de
máscara parcial no se admiten.
El controlador tambn admite la coincidencia de datos definidos
por el usuario dentro de la carga de paquetes.
Estos datos flexibles se especifican mediante el campo "definido
por el usuario" del comando ethtool de la manera siguiente:
31 28 24 20 16 15 12 8 4 0
Desplazamiento en carga de
paquetes
2 bytes de datos
flexibles
Por ejemplo,
... user-def 0x4FFFF ...
indica al filtro que busque 4 bytes en la carga y empareje ese
valor con 0xFFFF. El desplazamiento se basa en el principio de
la carga, y no el principio del paquete. Por lo tanto:
flow-type tcp4 ... user-def 0x8BEAF ...
emparejaría los paquetes TCP/IPv4 que tienen el valor 0xBEAF
de 8 bytes con la carga TCP/IPv4.
Tenga en cuenta que las cabeceras de ICMP se analizan como
4 bytes de cabecera y 4 bytes de carga. Por lo tanto, para
emparejar el primer byte de la carga, en realidad debe agregar 4
bytes al desplazamiento. Tenga en cuenta también que los filtros
ip4 coinciden tanto con las tramas ICMP como con las tramas
ip4 raw (desconocido), donde la carga será la carga L3 de la
trama IP4.
El desplazamiento máximo es 64. El hardware solo leerá hasta
64 bytes de datos del paquete. El desplazamiento debe ser
equitativo porque los datos flexibles tienen una longitud de 2
bytes y deben estar alineados con el byte 0 de la carga de
paquetes.
El desplazamiento flexible definido por el usuario tambn se
considera parte del conjunto de entrada y no se puede
programar por separado para varios filtros del mismo tipo. Sin
embargo, los datos flexibles no forman parte del conjunto de
entrada, y varios filtros pueden utilizar el mismo desplazamiento,
pero coincidir con datos diferentes.
Para crear filtros que dirigen el tfico a una función virtual
específica, utilice el pametro "action" (acción). Especifique la
acción como un valor de 64 bits, donde los 32 bits inferiores
representan el mero de cola y los 8 bits siguientes
representan la VF. Tenga en cuenta que 0 es la PF, por lo que el
identificador de la VF está desplazado por 1. Por ejemplo:
... action 0x800000002 ...
especifica que se dirija el tfico a la función virtual 7 (8 menos
1) en la cola 2 de dicha VF.
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
Tenga en cuenta que estos filtros no romperán las reglas de
enrutamiento interno, y no enrutará el tráfico que de otra manera
no se habría enviado a la función virtual especificada.
Compatibilidad
con el filtro de
nube
En una red compleja que admite varios tipos de tráfico (por
ejemplo, tanto para el almacenamiento como el de la nube), la
compatibilidad con el filtro de nube le permite enviar un tipo de
tráfico (por ejemplo, el tráfico de almacenamiento) a la función
sica (PF) y de otro tipo (por ejemplo, el tfico de la nube) a una
función virtual (VF). Como las redes de nube normalmente están
basadas en VXLAN/Geneve, puede definir un filtro de nube para
identificar los paquetes VXLAN/Geneve y enviarlos a una cola
en la VF para que los procese la máquina virtual (VM). De forma
similar, se pueden diseñar otros filtros de nube para varios
túneles de tráfico diferentes.
NOTAS:
l Los filtros de nube solo se admiten cuando el
dispositivo subyacente está establecido en el
modo de función única por puerto.
l La opción "action -1" (acción -1), que descarta los
paquetes coincidentes en filtros de Flow Director
normales, no está disponible para descartar los
paquetes cuando se utiliza con los filtros de nube.
l En el caso de IPv4 y otros tipos de flujo, los filtros
de nube no se pueden utilizar para filtros TCP o
UDP.
l Los filtros de nube se pueden usar como un
método para implementar la división de colas en
la PF.
Los siguientes filtros son compatibles:
Filtros de nube
l MAC interna, VLAN interna (para paquetes NVGRE,
VXLAN o Geneve)
l MAC interna, VLAN interna, ID de inquilino (para
paquetes NVGRE, VXLAN o Geneve)
l MAC interna, ID de inquilino (paquete NVGRE o
paquetes VXLAN/Geneve)
l Filtro L2 de MAC externa
l Filtro MAC interna
l MAC externa, ID de inquilino, MAC interna
l IP de destino de aplicación
l IP de origen de aplicación, MAC interna
l ToQueue: utilizar MAC, VLAN para señalar a una cola
Filtros L3
l IP de destino de aplicación
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
Los filtros de nube se especifican mediante la interfaz ntuple de
ethtool, pero el controlador utiliza el campo definido por el
usuario para determinar si el filtro se debe tratar como un filtro
de nube o un filtro normal. Para habilitar un filtro de nube,
establezca el bit s alto del campo definido por el usuario,
"user-def 0x8000000000000000", para habilitar las funciones de
nube descritas a continuación. Esto especifica al controlador
que debe tratar el filtro de forma especial y no como los filtros
normales descritos anteriormente. Tenga en cuenta que los
filtros de nube también leen los otros bits en el campo definido
por el usuario por separado, por lo que no puede utilizar la
función de datos flexibles descrita anteriormente.
Para filtros de Flow Director normales:
- Ningún campo definido por el usuario especificado o bit s
alto (bit 63) es 0
Ejemplo:
ethtool -U enp130s0 flow-type ip4 src-ip
192.168.0.1 dst-ip 192.168.0.109 action 6 loc
Para filtros L3 (paquetes sin túneles):
- "user-def 0x8000000000000000" (no se ha especificado
ningún ID/VNI de inquilino en los bits restantes del campo
definido por el usuario)
- Solo se tienen en cuenta los parámetros L3 (src-IP, dst-IP)
Ejemplo:
ethtool -U enp130s0 flow-type ip4 src-ip
192.168.42.13 dst-ip 192.168.42.33 / src-port
12344 dst-port 12344 user-def 0x8000000000000000
action / 0x200000000 loc 3
Redirija el tfico que proviene de 192.168.42.13 puerto 12344
con destino 192.168.42.33 puerto 12344 en la VF id 1, y llame a
esta acción "rule 3" (regla 3)
Para los filtros de nube (paquetes con túneles):
l Todos los des filtros, incluidos aquellos en los que se
especifica el ID/VNI de inquilino.
l Los 32 bits inferiores del campo definido por el usuario
pueden llevar el ID/VNI de inquilino si es necesario.
l La VF se puede especificar con el campo "action"
(acción), del mismo modo que los filtros normales
descritos en la sección de filtros de Flow Director
anterior.
l Los filtros de nube pueden definirse con MAC interna,
MAC externa, dirección IP interna, VLAN interna y VNI
como parte de la tupla de nube. Los filtros de nube filtran
en el destino (no en el origen) para MAC e IP. Los
campos de dirección MAC de destino y origen en el
comando ethtool están sobrecargados como la dirección
MAC dst = externa, src = interna para facilitar la definición
de tupla para un filtro de nube.
l El pametro "loc" especifica el número de regla del filtro
como almacenado en el controlador base.
Nombre del
parámetro
Rango y
configuración
lidos
Valores
por
defecto
Descripción
Ejemplo:
ethtool –U enp130s0 flow-type ether dst
8b:9d:ed:6a:ce:43 src 1d:44:9d:54:da:de user-def
0x8000000000000022 loc 38 action 0x200000000
Redirija el tfico en VXLAN con el túnel id 34 (hex 0x22) que
proviene de la dirección MAC externa 8b:9d:ed:6a:ce:43 y la
dirección MAC interna 1d:44:9d:54:da:de a la VF id 1 y llame a
esta acción "rule 38" (regla 38).
EEE De 0 a 1 1
(habilitado)
Esta opción permite la capacidad de IEEE802.3az, EEE (Energy
Efficient Ethernet), de anunciarse en el interlocutor de enlace en
componentes compatibles con EEE.
Un vínculo entre dos dispositivos compatibles con EEE tend
como resultado cargas periódicas de datos seguidas por
periodos en los que el enlace se encontra en estado inactivo.
Este estado inactivo de bajo consumo (LPI) se admite con
velocidades de enlace de 2,5 Gbps y 5 Gbps.
NOTA: la compatibilidad con EEE requiere negociación
automática.
Configuraciones adicionales
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende
de la distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en
/etc/modules.conf o /etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o
archivos de configuración. Muchas distribuciones de Linux se suministran con las herramientas necesarias para hacer
estos cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el
sistema, consulte la documentación de la distribución. Si, durante este proceso, se le solicita el nombre del
controlador o del módulo, i40e es el nombre del controlador base de Linux para la familia de adaptadores Intel® 10
Gigabit PCI Express.
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que
se muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello,
escriba lo siguiente:
dmesg -n 8
NOTA: esta configuración no se guarda a tras de los reinicios.
Tramas jumbo
La compatibilidad con las Tramas jumbo se activa cambiando la MTU a un valor mayor al valor predeterminado de
1500 bytes. El valor máximo para la MTU es 9710. Utilice el comando ifconfig para aumentar el tamaño de la MTU. Por
ejemplo, introduzca lo siguiente, donde <x> es elmero de la interfaz:
ifconfig ethx mtu 9000 up
Esta configuración no se guarda entre reinicios. El cambio de configuración se puede hacer permanente agregando
MTU = 9000 al archivo /etc/sysconfig/network-scripts/ifcfg-eth<x> para RHEL o al archivo
/etc/sysconfig/network/<config_file> para SLES.
El valor máximo para la MTU para las tramas jumbo es 9702. Este valor coincide con el tamaño máximo de las tramas
jumbo 9728. Este controlador intenta utilizar varios búferes de tamaño degina para recibir cada paquete jumbo.
Se estima que esto ayuda a evitar los problemas de escasez defer al asignar los paquetes de recepción.
NOTAS:
l Para habilitar las Tramas jumbo, aumente el tamaño de la MTU en la interfaz para que sea superior a
1500.
l El tamaño máximo de las Tramas jumbo es de 9728 bytes, con un tamaño correspondiente de MTU de
9702 bytes.
l Lardida de paquetes puede tener un mayor impacto en el rendimiento cuando se utilizan Tramas
jumbo. Si observa una caída en el rendimiento después de activar las Tramas jumbo, la activación del
control de flujo puede mitigar el problema.
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, acomo para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool.
La revisión más reciente de ethtool se encuentra en: http://sourceforge.net/projects/gkernel.
Agente LLDP del firmware
En los dispositivos de la serie 710, hay un agente de protocolo de detección de capa de enlace (LLDP) que se ejecuta
en el firmware. Cuando se está ejecutando, impide que las aplicaciones del sistema operativo reciban tfico LLDP
desde el adaptador de red. Si se utilizan el firmware y los controladores de la familia de NIC Intel versión 18.5.0 o
posteriores, el agente LLDP del firmware se puede desactivar mediante un indicador privado con ethtool. Para que la
configuración surta efecto, es necesario desactivar DCB y NPAR. Para desactivar el agente LLDP del firmware con
ethtool, ejecute "ethtool --set-priv-flags <nombre de interfaz> disable-fw-lldp on". Para activar el agente LLDP del
firmware con ethtool, ejecute "ethtool --set-priv-flags <nombre de interfaz> disable-fw-lldp off". El cambio no se
mantend desps de reiniciar.
NOTA: debe activar el atributo UEFI HII "LLDP AGENT" para que esta configuración surta efecto. Si la opción
"LLDP AGENT" está desactivada, no podrá activarla desde el sistema operativo.
NAPI
En el controlador i40e se admite NAPI (modo de sondeo Rx).
Para obtener s información sobre NAPI, consulte https://wiki.linuxfoundation.org/networking/napi.
Control de flujo
El control de flujo viene deshabilitado de forma predeterminada. Para habilitarlo, utilice ethtool:
ethtool -A eth? autoneg off rx on tx on
NOTA: debe contar con un interlocutor de enlace con capacidad para el control de flujo.
Flujo de hash RSS
Le permite establecer los bytes de hash por tipo de flujo y cualquier combinación de una o más opciones para la
configuración de bytes de hash de ajuste de escala en lado de recepción (RSS).
#ethtool -N <dev> rx-flow-hash <type> <option>
Donde <type> es:
tcp4 significa TCP en IPv4
udp4 significa UDP en IPv4
tcp6 significa TCP en IPv6
udp6 significa UDP en IPv6
Y <option> es una opción o más de las siguientes:
s Hash en la dirección IP de origen del paquete rx.
d Hash en la dirección IP de destino del paquete rx.
f hash en bytes 0 y 1 de la cabecera de la capa 4 del paquete rx.
n hash en bytes 2 y 3 de la cabecera de la capa 4 del paquete rx.
Función anti-suplantación de identidad de MAC y VLAN
Cuando un controlador malicioso intenta enviar un paquete de suplantación de identidad, el hardware lo descarta y
no lo transmite. A continuación, manda una notificación de interrupción al controlador PF para informar del intento de
suplantación de identidad. Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente
mensaje al registro del sistema (use el comando "dmesg" para verlo):
i40e ethx: i40e_spoof_check: n spoofed packets detected
Donde x = elde la interfaz de PF y n = la VF que intentó realizar la suplantación de identidad.
NOTA: esta función puede deshabilitarse para una función virtual (VF) concreta.
Reloj de hardware del protocolo de tiempo de precisión (PHC) IEEE 1588
El protocolo de tiempo de precisión (PTP) se utiliza para sincronizar los relojes en una red informática. El PTP varía en
función de los dispositivos de Intel que admite este controlador.
Utilice "ethtool -T <netdev name>" para obtener una lista definitiva de las capacidades de PTP que admite el
dispositivo.
Descarga de hardware de superposición VXLAN
El controlador i40e de Linux incluye compatibilidad con la descarga de hardware de superposición VXLAN. Los dos
comandos siguientes se utilizan para ver y configurar VXLAN en un dispositivo habilitado para la descarga de
superposición VXLAN.
Este comando muestra las descargas de y su estado actual:
# ethtool -k ethX
Este comando habilita y deshabilita la compatibilidad con VXLAN en el controlador.
# ethtool -K ethX tx-udp_tnl-segmentation [off|on]
Para obtener s información sobre la configuración de la red para la compatibilidad con descargas de superposición
VXLAN, consulte la nota técnica de Intel: "Creating Overlay Networks Using Intel Ethernet Converged Network
Adapters" (Intel Networking Division, agosto de 2013):
http://www.intel.com/content/dam/www/public/us/en/documents/technology-briefs/ overlay-networks-using-converged-
network-adapters-brief.pdf
Habilitación de puentes de centro de datos (DCB)
DCB es una implementación de calidad de servicio de configuración en el hardware. Utiliza la etiqueta de prioridad
VLAN (802.1p) para filtrar el tfico. Esto significa que hay 8 prioridades diferentes con las que se puede filtrar el
tráfico. También permite un control de flujo prioritario (802.1Qbb) que puede limitar o eliminar lardida de paquetes
durante los momentos de mayor uso de la red. Se puede asignar un ancho de banda a cada una de estas prioridades,
que se aplica en el nivel de hardware (802.1Qaz).
El firmware del adaptador implementa los agentes de los protocolos LLDP y DCBX de acuerdo con 802.1AB y
802.1Qaz, respectivamente. El agente DCBX basado en firmware solo se ejecuta en el modo preparado y puede
aceptar la configuración de un par con capacidad DCBX. No se permite la configuración mediante software de los
pametros de DCBX a tras de dcbtool/lldptool.
NOTA: el LLDP del firmware se puede desactivar estableciendo el indicador privado disable-fw-lldp.
El controlador implementa la capa de interfaz netlink DCB para permitir que el espacio de usuario se comunique con
el controlador y consulte la configuración DCB para el puerto.
Optimizacn del rendimiento
Los valores por defecto de los controladores se adaptan a una amplia variedad de cargas de trabajo. Si se requiere
una mayor optimización, recomendamos experimentar con la siguiente configuración.
Tamaños de trama pequos
Para un mejor rendimiento a la hora de procesar tamaños de trama pequeños (64 B):
1. Trate de habilitar la tecnología Hyper-threading en el BIOS con el fin de incrementar elmero decleos
lógicos del sistema.
2. Incremente elmero de colas disponibles para el adaptador:
# ethtool -L
Alineación de IRQ con colas de adaptador
Asigne los IRQ del adaptador a núcleos espeficos deshabilitando el servicio irpbalance y utilizando la secuencia de
comandos set_irq_affinity incluida. Consulte el texto de ayuda de la secuencia de comandos para ver más opciones.
La siguiente configuración distribuirá los IRQ en todos los núcleos uniformemente:
# scripts/set_irq_affinity -X all <interfaz1> , [ <interfaz2>, ... ]
La siguiente configuración distribuirá los IRQ en todos los núcleos que son locales del adaptador (el mismo nodo
NUMA):
# scripts/set_irq_affinity -X local <interfaz1> ,[ <interfaz2>, ... ]
Para cargas de trabajo intensivas de la CPU, recomendamos asignar los IRQ a todos los núcleos.
Tamaño del anillo de descriptores Rx
Con el fin de reducir elmero de descartes de paquetes Rx, debe incrementar elmero de descriptores Rx de
cada anillo Rx mediante ethtool.
Compruebe si la interfaz está perdiendo paquetes Rx debido a que los búferes están llenos (rx_dropped.nic significa
que no hay ancho de banda de PCIe):
# ethtool -S <interfaz> | grep "rx_dropped"
Incremente elmero de descriptores Rx de cada anillo Rx mediante ethtool. Esto poda ayudar a reducir las
rdidas de paquetes Rx a costa de los recursos del sistema:
# ethtool -G <interfaz> rx N
Donde N es elmero deseado de anillos
Limitación de la tasa de interrupción
Este controlador es compatible con un mecanismo de tasa de interrupción adaptativa optimizado para cargas de
trabajo generales. El usuario puede personalizar el control de la tasa de interrupción para cargas de trabajo
específicas, mediante ethtool, ajustando elmero de microsegundos entre interrupciones.
Para configurar manualmente la tasa de interrupción, debe deshabilitar el modo adaptativo:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off
Para una menor utilizacn de la CPU:
1. Desactive la ITR adaptativa y reduzca las interrupciones de Rx y Tx. Los siguientes ejemplos afectan a todas
las colas de la interfaz especificada.
2. La configuración de rx-usecs y tx-usecs en 125 limitará las interrupciones a unas 8000 por segundo y cola:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off rx-usecs 125 tx-usecs 125
Para una menor latencia:
Desactive la ITR adaptativa y la ITR mediante el ajuste de rx-usecs y tx-usecs en 0 a tras de ethtool:
# ethtool -C <interfaz> adaptive-rx off adaptive-tx off rx-usecs 0 tx-usecs 0
Problemas conocidos
Los dispositivos X710/XXV710 no pueden habilitar las VF MAX cuando NPAR y SR-
IOV están habilitadas
Los dispositivos X710/XXV710 no pueden habilitar las VF Max (64) cuando NPAR y SR-IOV están habilitadas. Se
registra un error del controlador i40e que indica "add vsi failed for VF N, aq_err 16" (error al agregar vsi para VF N, aq_
err 16). Para solucionar este problema, habilite menos de 64 funciones virtuales (VF).
El comando "ip link show" (mostrar enlace ip) muestra la MAC de VF incorrecta si la
MAC de VF se ha establecido desde la VF
Ejecutar el comando "ip link show" (mostrar enlace ip) solo muestra las direcciones MAC si las ha establecido la PF.
De lo contrario, muestra todo como ceros.
Comportamiento previsto. El controlador de la PF está transmitiendo ceros al controlador de la VF, que puede generar
su propia dirección MAC aleatoria e indicarla al SO invitado. Sin esta función, algunos sistemas operativos invitados
asignarán incorrectamente a la VF un nombre de interfaz nuevo cada vez que se reinicien.
La descarga de la suma de comprobación IPv6/UDP no funciona en algunos kernel
más antiguos
Algunas distribuciones con kernels más antiguos no habilitan correctamente la descarga de la suma de comprobación
IPv6/UDP. Para utilizar la descarga de la suma de comprobación IPv6, puede que sea necesario actualizar a un
kernel nuevo.
Se muestran mensajes de advertencia depmod sobre símbolos desconocidos
durante la instalación
Durante la instalación del controlador, puede que visualice mensajes de advertencia depmod relacionados con los
símbolos desconocidos i40e_register_client e i40e_unregister_client. Estos mensajes se muestran solo a título
informativo; no se requiere ninguna acción por parte del usuario. La instalación debea completarse correctamente.
Error: <ifname> selects TX queue XX but real number of TX queues is YY (<ifname>
selecciona TX cola XX, pero el mero real de las colas TX es YY)
Cuando se configura elmero de colas con una pesada carga de tfico, puede que visualice un mensaje de error
que indica "<ifname> selects TX queue XX, but real number of TX queues is YY" (<ifname> selecciona TX cola XX,
pero elmero real de las colas TX es YY). Este mensaje es meramente informativo y no afecta a la funcionalidad.
Solución de problemas de rendimiento al utilizar IOMMU en entornos virtualizados
La función IOMMU del procesador evita que los dispositivos de E/S accedan a la memoria fuera de los límites
establecidos por el SO. Tambn permite que los dispositivos se asignen directamente a una máquina virtual. Sin
embargo, la función IOMMU puede afectar al rendimiento, tanto en la latencia (cada acceso a DMA por parte del
dispositivo debe ser traducido por la IOMMU) como en la utilización de la CPU (cada búfer asignado a cada
dispositivo debe asignarse en la IOMMU).
Si experimenta problemas de rendimiento importantes con la función IOMMU, intente usarla en modo "passthrough"
adiendo la siguiente línea de comandos de arranque del kernel:
intel_iommu=on iommu=pt
NOTA: este modo permite la reasignación para asignar dispositivos a las VM y proporcionar así un rendimiento
de E/S casi nativo, pero no proporciona la protección de memoria adicional.
La transmisión se bloquea y no permite ningún tráfico
La deshabilitación del control de flujo mientras el dispositivo está en condiciones de mucha exigencia puede causar
bloqueos de la transmisión y, finalmente, el hecho de que el dispositivo deje de transmitir el tfico. Debe reiniciar el
sistema para solucionar este problema.
Mensajes incompletos en el registro del sistema
La utilidad NVMUpdate puede escribir varios mensajes incompletos en el registro del sistema.
Estos mensajes se muestran de la forma siguiente:
in the driver Pci Ex config function byte index 114
in the driver Pci Ex config function byte index 115
Estos mensajes se pueden ignorar.
El contador de la suma de comprobación incorrecta aumenta de forma errónea al uti-
lizar VxLAN
Al transmitir tfico no UDP a través de una interfaz VxLAN, el contador port.rx_csum_bad aumenta para los paquetes.
Los contadores de estadísticas se restablecen cuando se cambia el modo pro-
miscuo
El cambio del modo promiscuo desencadena un restablecimiento del controlador de la función física. Esto
restablecerá los contadores de estadísticas.
La máquina virtual no obtiene el enlace
Si la máquina virtual tiene más de un puerto virtual asignado, y esos puertos virtuales están vinculados a diferentes
puertos físicos, puede que no obtenga el enlace en todos los puertos virtuales. El comando siguiente puede
solucionar el problema:
ethtool -r <PF>
Donde <PF> es la interfaz PF en el host, por ejemplo: p5p1. Puede que necesite ejecutar el comando más de una vez
para obtener enlace en todos los puertos virtuales.
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza
una dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el
controlador de la VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática
sobrevivirá a una recarga del controlador de la VF.
El cambio del mero de colas Rx o Tx con ethtool -L puede causar nico del ker-
nel
El cambio delmero de colas Rx o Tx con ethtool -L mientras el tfico fluye y la interfaz está activa puede causar
nico del kernel. Deshabilite primero la interfaz para evitar el problema. Por ejemplo:
ip link set ethx down
ethtool -L ethx combined 4
La adición de una regla de Flow Director Sideband falla incorrectamente
Si intenta agregar una regla de Flow Director cuando no hay más espacio de regla Sideband disponible, el
controlador i40e registra un error que indica que la regla no se ha podido agregar, pero ethtool devuelve que la
acción se ha realizado correctamente. Puede quitar reglas para liberar espacio. Ades, elimine la regla que ha
fallado. Esto la expulsará de la caché del controlador.
Flow Director Sideband Logic agrega un filtro duplicado
Flow Director Sideband Logic añade un filtro duplicado en la lista de filtros de software si la ubicación no se ha
especificado, o se ha especificado pero difiere de la ubicación anterior pese a tener los mismos criterios de filtro. En
este caso, el segundo de los filtros que aparecen es el lido en hardware y decide la acción del filtro.
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda entre reinicios. El cambio de configuración puede hacerse permanente
si agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores
diferentes o en un conmutador con particiones para VLAN).
Problema de paquete perdido en la prueba de presión de UDP
Bajo la presión de UDP de paquetes pequeños con el controlador i40e, es posible que el sistema pierda paquetes
UDP debido a que los búferes de calo están llenos. La configuración de las variables de control de flujo alnimo
puede solucionar el problema. También puede intentar aumentar los tamaños defer predeterminados del kernel
cambiando los valores en /proc/sys/net/core/rmem_default y rmem_max.
Desconexión del cable de red mientras se ejecuta ethtool -p
En las versiones de kernel 2.6.32 y posteriores, la desconexión del cable de red mientras se ejecuta ethtool -p ha
que el sistema no responda a los comandos emitidos con el teclado, con la excepción de Control-Alt-Supr.
Aparentemente la única solución consiste en reiniciar el sistema.
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores.
Estos errores son provocados por la forma en que el kernel de Linux informa estas condiciones de mucha exigencia.
Rendimiento inferior al esperado
Algunas ranuras PCIe x8 están configuradas en realidad como ranuras x4. Estas ranuras tienen un ancho de banda
insuficiente para la velocidad de línea de entera con dispositivos de dos y cuatro puertos. Además, si coloca un
adaptador preparado para PCIe de tercera generación en una ranura PCIe de segunda generación, no obtendrá todo
el ancho de banda completo. El controlador detecta esta situación y escribe el mensaje siguiente en el registro del
sistema:
"PCI Express bandwidth available for this card is not sufficient for optimal performance. (El ancho de banda disponible
de PCI Express para esta tarjeta no es suficiente para obtener un rendimiento óptimo.) For optimal performance a x8
PCI Express slot is required. (Para conseguir un rendimiento óptimo es necesaria una ranura x8 PCI Express.)"
Si se produce este error, trasladar el adaptador a una ranura x8 PCIe de tercera generación verdadera soluciona el
problema.
ethtool puede mostrar el módulo de fibra SFP+ incorrectamente como cable de cone-
xión directa
Debido a las limitaciones de kernel, el tipo de puerto solo se puede visualizar correctamente en el kernel 2.6.33 o
superior.
La ejecución del comando ethtool -t ethX causa una interrupción entre la PF y el
cliente de prueba
Cuando hay VF activas, "ethtool -t" realiza un diagnóstico completo. Durante el proceso, este se restablece
automáticamente, acomo todas las VF conectadas. Los controladores de la VF detectan una interrupción, pero
pueden recuperarse.
No se puede obtener concesión DHCP en el inicio con RedHat
En el caso de configuraciones donde el proceso de negociación automática tarde más de 5 segundos, el script de
inicio puede fallar con el siguiente mensaje:
"ethX: failed. No link present. Check cable?"
Este error puede producirse aunque la presencia del enlace pueda confirmarse mediante ethtool ethx. En este caso,
intente establecer "LINKDELAY=30" en /etc/sysconfig/network-scripts/ifdfg-ethx.
El mismo problema puede producirse durante un arranque de red (a tras de PXE) en distribuciones RedHat que
utilizan el script dracut:
"Warning: No carrier detected on interface <interface_name>" (Advertencia: No se ha detectado ninn dispositivo
portador en la interfaz <interface_name>)
En este caso, agregue "rd.net.timeout.carrier=30" en la línea de comandos del kernel.
NOTA: el tiempo de enlace puede variar. Ajuste el valor LINKDELAY de la forma correspondiente. Otra
alternativa consiste en utilizar NetworkManager para configurar las interfaces, con lo que se evita el tiempo de
espera establecido. Consulte las instrucciones de configuración de NetworkManager en la documentación
proporcionada por su distribución.
La carga del controlador i40e en los kernels 3.2.x y posteriores muestra el mensaje
de kernel contaminado
Debido a cambios recientes en el kernel, la carga de un controlador de fuera del árbol hace que el kernel se
contamine.
Controlador iavf de Linux
Descripción general de iavf
El controlador i40evf se llama ahora iavf (Intel Adaptive Virtual Function). El objetivo es reducir el impacto en futuros
controladores Intel Ethernet. El controlador iavf permite actualizar su hardware sin necesidad de actualizar el
controlador de función virtual en cada una de las quinas virtuales que se ejecutan sobre el hardware.
Dispositivos compatibles con el controlador base iavf de Linux
Los siguientes adaptadores de red de Intel son compatibles con este controlador:
l Intel® Ethernet 10G 4P X710-k bNDC
l Intel® Ethernet 10G 2P X710-k bNDC
l Intel® Ethernet 10G X710-k bNDC
l Adaptador de Ethernet de red convergente Intel® X710
l Adaptador de Ethernet de red convergente Intel® X710-T
l Intel® Ethernet 10G 4P X710/l350 rNDC
l Intel® Ethernet 10G 4P X710 SFP+ rNDC
l Intel® Ethernet 10G X710 rNDC
l Intel® Ethernet Server Adapter X710-DA2 para OCP para servidores
l Intel® Ethernet 10G 2P X710 OCP
l Intel® Ethernet 10G 4P X710 OCP
l Intel® Ethernet 10G 2P X710-T2L-t OCP
l Adaptador Intel® Ethernet 10G 2P X710-T2L-t
l Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
l Adaptador de Ethernet de red convergente Intel® XL710-Q2
l Adaptador Intel® Ethernet 25G 2P XXV710
l Intel® Ethernet 25G 2P XXV710 Mezz
Compilacn e instalación
Para habilitar SR-IOV en su sistema:
1. Aserese de que tanto la virtualización como SR-IOV estén habilitadas en la BIOS.
2. Instale el sistema operativo Linux. Para comprobar si el controlador KVM está cargado, escriba: lsmod |
grep -i kvm
3. Cargue el controlador básico de Linux mediante el comando modprobe: modprobe i40e option max_
vfs=xx,yy
xx y yy son elmero de funciones virtuales que desea crear. Debe especificar unmero para cada puerto
con cada parámetro separado con una coma. Por ejemplo, xx es elmero de funciones virtuales para el
puerto 1; mientras que yy lo es para el puerto 2. Puede crear hasta 63 funciones por puerto.
4. Compile e instale el controlador iavf para SR-IOV. Este se carga contra las funciones virtuales creadas.
NOTA: para VLAN, hay un límite de 32 VLAN compartidas en total en 1 o más funciones virtuales.
Existen tres métodos para instalar el controlador Linux:
l Instalación desde el código fuente
l Instalación mediante un RPM KMP
l Instalación mediante un RPM KMOD
Instalación desde el código fuente
Para compilar un paquete RPM* binario de este controlador, ejecute 'rpmbuild -tb <nombre_de_archivo.tar.gz>'.
Reemplace <nombre_de_archivo.tar.gz> con el nombre de archivo específico del controlador.
NOTAS:
l Para que la compilación funcione correctamente es importante que el kernel que está en ejecución
COINCIDA con la versión y la configuración del digo fuente del kernel instalado. Si acaba de
recompilar el kernel, reinicie el sistema.
l El funcionamiento de RPM solo se ha probado con las distribuciones Red Hat.
1. Descargue el archivo con la extensión tar del controlador base al directorio que seleccione. Por ejemplo, utilice
"/home/username/iavf" o "/usr/local/src/iavf".
2. Para descomprimir el archivo, escriba lo siguiente, donde <x.x.x> es el número de versión del archivo tar del
controlador:
tar zxf iavf-<x.x.x>.tar.gz
3. Vaya al directorio src del controlador, donde <x.x.x> es el mero de versión del archivo tar del controlador:
cd iavf-<x.x.x>/src/
4. Compile el módulo del controlador:
make install
El binario se instalará como:
/lib/modules/<VERSIÓN DEL KERNEL>/kernel/drivers/net/iavf/iavf.ko
Las ubicaciones de instalación descritas anteriormente son las predeterminadas. Podan ser diferentes para
las distintas distribuciones de Linux. Para obtener más información, consulte el archivo Idistrib.txt que se
incluye en el archivo tar del controlador.
5. Elimine el controlador antiguo:
rmmod iavf
6. Instale el módulo con el comando modprobe:
modprobe iavf <parámetro>=<valor>
7. Asigne una dirección IP a la interfaz Ethernet y active la interfaz. Para ello, escriba lo siguiente, donde <ethx>
es el nombre de interfaz:
ifconfig <ethx> <dirección_IP> netmask <netmask> up
8. Compruebe que funcione la interfaz. Introduzca lo siguiente, donde <dirección_IP> es la dirección IP de otra
máquina situada en la misma subred que la interfaz que se está probando:
ping <dirección_IP>
Instalación mediante un RPM KMP
Los RPM KMP actualizan RPM iavf existentes que haya instalados actualmente en el sistema. Estas actualizaciones
son proporcionadas por SuSE en la versión SLES. Si no hay ningún RPM en el sistema, KMP no se instala.
Se proporcionan RPM para distribuciones compatibles de Linux. La convención de denominación para los RPM
incluidos es:
intel-<nombre del componente>-<versión del componente>.<tipo de arquitectura>.rpm
Por ejemplo, intel-iavf-1.3.8.6-1.x86_64.rpm: iavf es el nombre del componente; 1.3.8.6-1 es la versión del
componente, y x86_64 es el tipo de arquitectura.
Se proporcionan RPM KMP para distribuciones compatibles de Linux. La convención de denominación para los RPM
KMP incluidos es:
intel-<nombre del componente>-kmp-<tipo de kernel>-<versión del componente>_<versión del ker-
nel>.<tipo de arquitectura>.rpm
Por ejemplo, intel-iavf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm: iavf es el nombre del componente; default es el
tipo de kernel; 1.3.8.6 es la versión del componente; 2.6.27.19_5-1 es la versión del kernel, y x86_64 es el tipo de
arquitectura.
Para instalar el RPM KMP, escriba los dos comandos siguientes:
rpm -i <nombre_de_archivo rpm>
rpm -i <nombre_de_archivo kmp rpm>
Por ejemplo, para instalar el paquete de RPM iavf KMP, escriba lo siguiente:
rpm -i intel-iavf-1.3.8.6-1.x86_64.rpm
rpm -i intel-iavf-kmp-default-1.3.8.6_2.6.27.19_5-1.x86_64.rpm
Instalación mediante un RPM KMOD
Se proporcionan RPM KMOD para distribuciones compatibles de Linux. La convención de denominación para los
RPM incluidos es:
kmod-<nombre del controlador>-<versión>-1.<tipo de arquitectura>.rpm
Por ejemplo, kmod-iavf-2.3.4-1.x86_64.rpm:
l iavf es el nombre del controlador
l 2.3.4 es la versión
l x86_64 es el tipo de arquitectura
Para instalar el RPM KMOD, vaya al directorio del RPM y escriba el comando siguiente:
rpm -i <nombre_de_archivo rpm>
Por ejemplo, para instalar el paquete de RPM iavf KMOD, escriba lo siguiente:
rpm -i kmod-iavf-2.3.4-1.x86_64.rpm
Parámetros de la línea de comandos
El controlador iavf no admite ningún parámetro de línea de comandos.
Configuraciones adicionales
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema depende
de la distribución. Por lo general, el proceso de configuración incluye la adición de la línea de alias en
/etc/modules.conf o /etc/modprobe.conf, así como la edición de otras secuencias de comandos de inicio del sistema o
archivos de configuración. Muchas distribuciones de Linux se suministran con las herramientas necesarias para hacer
estos cambios autoticamente. Para familiarizarse con la forma adecuada de configurar un dispositivo de red en el
sistema, consulte la documentación de la distribución. Si, durante este proceso, se le solicita el nombre del
controlador o del módulo, i40e es el nombre del controlador base de Linux para la familia de adaptadores Intel® 10
Gigabit PCI Express.
Visualización de los mensajes de enlace
No se mostrarán los mensajes de enlaces en la consola si la distribución limita los mensajes del sistema. A fin de que
se muestren los mensajes de enlace de controlador de red en la consola, establezca dmesg en ocho. Para ello,
escriba lo siguiente:
dmesg -n 8
NOTA: esta configuración no se guarda a tras de los reinicios.
ethtool
El controlador utiliza la interfaz ethtool para la configuración y diagnóstico del controlador, acomo para mostrar la
información estadística. Para esta función, se requiere la versión más reciente de ethtool.
La revisión más reciente de ethtool se encuentra en: http://sourceforge.net/projects/gkernel.
Función anti-suplantación de identidad de MAC y VLAN
Cuando un controlador malicioso intenta enviar un paquete de suplantación de identidad, el hardware lo descarta y
no lo transmite. A continuación, manda una notificación de interrupción al controlador PF para informar del intento de
suplantación de identidad. Si se detecta un paquete de suplantación de identidad, el controlador PF envía el siguiente
mensaje al registro del sistema (use el comando "dmesg" para verlo):
i40e ethx: i40e_spoof_check: n spoofed packets detected
Donde x = elde la interfaz de PF y n = la VF que intentó realizar la suplantación de identidad.
NOTA: esta función puede deshabilitarse para una función virtual (VF) concreta.
Problemas conocidos
La máquina virtual no obtiene el enlace
Si la máquina virtual tiene más de un puerto virtual asignado, y esos puertos virtuales están vinculados a diferentes
puertos físicos, puede que no obtenga el enlace en todos los puertos virtuales. El comando siguiente puede
solucionar el problema:
ethtool -r <PF>
Donde <PF> es la interfaz PF en el host, por ejemplo: p5p1. Puede que necesite ejecutar el comando más de una vez
para obtener enlace en todos los puertos virtuales.
La dirección MAC de la función virtual cambia inesperadamente
Si no se asigna una dirección MAC de una función virtual en el host, el controlador de la VF (función virtual) utiliza
una dirección MAC aleatoria. Esta dirección MAC aleatoria puede cambiar cada vez que se vuelve a cargar el
controlador de la VF. Puede asignar una dirección MAC estática en el equipo host. Esta dirección MAC estática
sobrevivirá a una recarga del controlador de la VF.
Interfaces múltiples en la misma red de difusión Ethernet
Debido al comportamiento predeterminado de ARP en Linux, no es posible que un sistema en dos redes IP del mismo
dominio de difusión Ethernet (conmutador sin particiones) se comporte como se espera. Todas las interfaces Ethernet
responderán al tráfico IP de cualquier dirección IP asignada al sistema. Esto resulta en un tfico de recepción
desequilibrado.
Si existen varias interfaces en un servidor, active el filtro ARP con:
echo 1 > /proc/sys/net/ipv4/conf/all/arp_filter
Esto solo funciona si la versión del kernel es superior a la 2.4.5.
NOTA: esta configuración no se guarda entre reinicios. El cambio de configuración puede hacerse permanente
si agrega la siguiente línea al archivo /etc/sysctl.conf:
net.ipv4.conf.all.arp_filter = 1
Otra alternativa consiste en instalar las interfaces en dominios de difusión separados (ya sea en conmutadores
diferentes o en un conmutador con particiones para VLAN).
Errores de asignación de página de recepción
Pueden producirse errores del tipo "Page allocation failure. order:0" (Fallo de asignación degina. order:0) en
condiciones de mucha exigencia con la versión de kernel 2.6.25 y posteriores.
Estos errores son provocados por la forma en que el kernel de Linux informa estas condiciones de mucha exigencia.
DCB (Habilitación de puentes de centro de datos) para
conexiones de red Intel®
Los puentes de centro de datos proporcionan una capa de transporte de centro de datos sin pérdidas para utilizar las
LAN y SAN en una infraestructura unificada única.
DCB incluye las prestaciones siguientes:
l Control de flujo basado en la prioridad (PFC; IEEE 802.1Qbb)
l Selección de transmisión aumentada (ETS; IEEE 802.1Qaz)
l Notificación de congestión (CN)
l Ampliaciones al estándar del Protocolo de descubrimiento de capas de enlace (IEEE 802.1AB) que habilitan
DCBX (Protocolo de intercambio de capacidades de la habilitación de puentes de centro de datos)
Hay dos versiones compatibles de DCBX:
Versión CEE: la especificación se puede encontrar como enlace en el documento siguiente:
http://www.ieee802.org/1/files/public/docs2008/dcb-baseline-contributions-1108-v1.01.pdf
Versión IEEE: la especificación se puede encontrar como enlace en el documento siguiente:
https://standards.ieee.org/findstds/standard/802.1Qaz-2011.html
NOTA: la pila DCBX del sistema operativo tomará de forma predeterminada la versión CEE de DCBX y, si un
par transmite TLV IEEE, se realiza automáticamente su transición a la versión IEEE.
Para obtener s información sobre DCB, incluida la Especificación del protocolo de intercambio de capacidades de
DCB, visite http://www.ieee802.org/1/pages/dcbridges.html.
Configuración de DCB para Windows
NOTA: En sistemas que ejecutan el sistema operativo Microsoft Windows Server, la habilitación de
*QoS/control de flujo de prioridad deshabilitará el control de flujo a nivel de enlace.
Las funciones de DCB del adaptador de Ethernet pueden configurarse mediante el Administrador de dispositivos de
Windows. Abra la hoja de propiedades del adaptador y seleccione la ficha Data Center (Centro de datos).
Puede utilizar Intel® PROSet para realizar las tareas siguientes:
l Visualizar estado:
l Selección de transmisión aumentada
l Control del flujo de prioridad
Estado no operativo: si el indicador de estado muestra que DCB no está funcionando, podría ser a
causa de varias razones:
l DCB no está habilitado, seleccione la casilla de verificación para habilitarlo.
l Una o más de las funciones DCB se encuentran en estado no operativo.
Lo más probable es que el estado no operativo se presente cuando se selecciona Utilizar
configuración de conmutador o cuando se activa Utilizar configuracn avanzada. Por lo general, se
debe a que una o más funciones DCB no se están intercambiando de forma satisfactoria con el
conmutador. Entre los problemas posibles están:
l El conmutador no admite una de las funciones.
l El conmutador no está anunciando la función.
l El conmutador o host ha deshabilitado la función (la cual sería una opción avanzada para el
host).
l Deshabilitar/habilitar DCB
l Información sobre resolución de problemas
Hyper-V (DCB y VMQ)
NOTA: configurar un dispositivo en el modo VMQ + de DCB reduce elmero de VMQ disponibles para SO
invitados.
DCB para Linux
NOTA: DCB es compatible con RHEL6 o posterior, o SLES11 SP1 o posterior. Si desea información más
concreta, consulte la documentación de su sistema operativo.
iSCSI en DCB
Los adaptadores Intel® Ethernet son compatibles con los iniciadores de software iSCSI nativos del sistema operativo
subyacente. DCB suele estar configurado en el conmutador. Si el conmutador no es compatible con DCB, el
intercambio DCB fallará, pero no se perderá la conexión iSCSI.
NOTA: DCB no se instala en una máquina virtual. iSCSI en DCB solo se admite en el SO base. Un iniciador de
iSCSI que se ejecute en una máquina virtual no contará con las mejoras de DCB Ethernet.
Configuración de Microsoft Windows
La instalación de iSCSI incluye la instalación del agente iSCSI de DCB (iscsidcb.exe), un servicio de modo usuario. El
iniciador de software de iSCSI de Microsoft habilita la conexión de un host de Windows a un conjunto de
almacenamiento iSCSI mediante un adaptador Intel Ethernet. Consulte la documentación de su sistema operativo
para obtener detalles sobre la configuración.
Para habilitar DCB en el adaptador, realice lo siguiente:
1. Desde el Administrador de dispositivos de Windows, expanda Adaptadores de red y resalte el adaptador
apropiado (como el adaptador para servidor Intel® Ethernet X520). Haga clic con el botón secundario del ratón
en el adaptador Intel y seleccione Propiedades.
2. En la página Propiedades, seleccione la ficha Data Center (Centro de datos).
La ficha Data Center (Centro de datos) proporciona información sobre el estado de DCB, ya sea operativo o no, a
como detalles adicionales en caso de que no lo estuviera.
NOTA: En los sistemas operativos Microsoft Windows Server, si configura la prioridad mediante IEEE, es
posible que la directiva iSCSI no se cree automáticamente. Para crear la directiva iSCSI manualmente, utilice
Powershell y escriba:
New-NetQosPolicy -Name "UP4" -PriorityValue 8021 Action 4 –iSCSI
Configuración de Linux
En el caso de las distribuciones de código abierto, pcticamente todas son compatibles con un iniciador de software
iSCSI abierto y los adaptadores Intel® Ethernet los admitirán. Para obtener información adicional sobre la
configuración de un iniciador de Open iSCSI en concreto, consulte la documentación de distribución.
Los adaptadores Intel® basados en 82599 y X540 son compatibles con iSCSI en una nube de puentes de centro de
datos. Si se utiliza junto con conmutadores y destinos que admitan la aplicación TLV de iSCSI/DCB, esta solución
puede proporcionar un ancho de bandanimo garantizado para el tfico iSCSI entre el host y el destino. Esta
solución permite a los administradores de almacenamiento segmentar el tfico iSCSI y distinguirlo del tráfico LAN.
Anteriormente, el proveedor de conmutadores trataba como tfico LAN el tfico iSCSI dentro de un entorno
compatible con DCB. Consulte a sus proveedores de conmutador y de destino si son compatibles con la aplicación
TLV de iSCSI/DCB.
Arranque remoto
El arranque remoto permite arrancar un sistema solo con un adaptador de Ethernet. Puede conectarse a un servidor
que contenga una imagen del sistema operativo y utilizarlo para arrancar su sistema local.
Imágenes flash
"Flash" es un término genérico para la RAM no volátil (NVRAM), el firmware y el componente opcional de ROM
(OROM). En función del dispositivo, puede estar en la NIC o en la placa del sistema.
Actualizacn de la memoria flash desde Linux
La utilidad de línea de comandos BootUtil puede actualizar la memoria flash en un adaptador de red Ethernet Intel.
Ejecute bootutil.efi con las siguientes opciones de línea de comandos para actualizar la memoria flash en todos los
adaptadores de red Intel compatibles. Por ejemplo, introduzca la siguiente línea de comandos:
bootutil64e –up=efiall
BootUtil solo puede utilizarse para programar adaptadores de red Intel complementarios. No es posible programar
conexiones de red LOM (LAN On Motherboard, LAN en placa madre) con la ROM opcional del controlador de red
UEFI.
Consulte el archivo bootutil.txt para obtener más información sobre la utilización de BootUtil.
Instalación de la ROM opcional del controlador de red UEFI desde la shell
UEFI
La utilidad de línea de comandos BootUtil puede instalar el controlador de red UEFI en la ROM opcional de un
adaptador de red Intel. El controlador de red UEFI se carga automáticamente durante el inicio UEFI del sistema si
está instalado en la ROM opcional. Por ejemplo, ejecute BootUtil con las siguientes opciones de línea de comandos
para instalar el controlador de red UEFI en todos los adaptadores de red Intel compatibles:
FS0:\>bootutil64e –up=efi –all
BootUtil solo puede utilizarse para programar adaptadores de red Ethernet complementarios Intel. No es posible
programar conexiones de red LOM (LAN On Motherboard, LAN en placa madre) con la ROM opcional del controlador
de red UEFI.
Consulte el archivo bootutil.txt para obtener más información sobre la utilización de BootUtil.
Permitir arranque remoto
Si tiene un adaptador Intel de sobremesa instalado en su equipo cliente, el dispositivo ROM flash ya está disponible
en su adaptador y no es necesaria ninguna instalación adicional. Para los adaptadores Intel, la memoria ROM flash
puede habilitarse con la utilidad BootUtil. Por ejemplo, escriba en la línea de comandos:
BOOTUTIL -E
BOOTUTIL -NIC=1 -FLASHENABLE
La primera línea enumera los puertos disponibles en el sistema. Seleccione un puerto. A continuación, escriba la
segunda línea, seleccionando el puerto que desee habilitar. Para obtener más información, consulte el archivo
bootutil.txt.
Adaptadores Intel en el menú de inicio
La sección Menú de inicio del Administrador de inicio indicará los puertos habilitados para PXE en un adaptador Intel
basado en X710 como puertos 40G, como se muestra en la figura siguiente. Los puertos de un adaptador X710 son,
de hecho, puertos 10G.
En el Menú de inicio del Administrador de inicio, los adaptadores Intel se identifican de la forma siguiente:
l Adaptadores controlados por X710: "IBA 40G"
l Otros adaptadores 10G: "IBA XE"
l Adaptadores 1G: "IBA 1G"
Configuración de Intel® Boot Agent
Configuración del cliente de Boot Agent
Boot Agent se activa y se configura desde HII.
PRECAUCIÓN: si se encuentra habilitado el Protocolo de árbol de expansión (spanning tree protocol) en
un puerto de conmutador a través del cual un puerto intenta usar PXE, el retraso que se produce antes
de que el puerto empiece a enviar paquetes podría causar que se agote el tiempo de espera de DHCP.
Debe deshabilitar el árbol de expansn (spanning tree) o bien activar la función que permite que el
puerto empiece a enviar paquetes inmediatamente ('port fast learning' en los conmutadores Cisco), en
lugar de esperar hasta que se complete la deteccn del árbol de expansión (spanning tree).
Configuración de destino/servidor de Intel Boot Agent
Visión general
Para que el software Intel® Boot Agent realice el trabajo para el que se ha concebido, debe configurarse un servidor
en la misma red que el equipo cliente. Dicho servidor debe reconocer y responder a los protocolos de inicio PXE o
BOOTP que utiliza el software Intel Boot Agent.
NOTA: cuando se instala el software Intel Boot Agent como actualización de una versión previa de ROM de
inicio, es posible que el software asociado con el servidor no sea compatible con el Intel Boot Agent
actualizado. Comuníquese con el administrador de sistemas para determinar si es necesario realizar
actualizaciones en el servidor.
Configuración del servidor Linux*
Consulte al proveedor de Linux* para obtener información acerca de mo configurar el servidor Linux.
Windows* Deployment Services (Servicios de implementación de Windows*)
Nada es necesario aparte de los archivos de controlador estándar que se proporcionan en el material multimedia.
Microsoft* tiene la propiedad del proceso y las instrucciones asociadas de Windows Deployment Services. Para
obtener más información sobre Windows Deployment Services, realice unasqueda de artículos de Microsoft en:
http://technet.microsoft.com/en-us/library/default.aspx
Mensajes de Intel® Boot Agent
Texto del mensaje Motivo
Invalid PMM function number
(Número no lido de función
PMM).
PMM no está instalado o no funciona correctamente. Intente actualizar el BIOS.
PMM allocation error (Error de
asignación de PMM).
PMM no pudo o no asignó la cantidad de memoria solicitada para el uso del
controlador.
Option ROM ini-tialization error
(Error de inicialización de ROM
opcional). 64-bit PCI BAR
addresses not supported, AX=
(No se admiten direcciones
BAR de PCI de 64 bits, AX=)
Esto es debido a la asignación de un registro de direcciones base (BAR) de 64
bit al puerto de red por parte del sistema BIOS. Ejecutar la utilidad BootUtil con
la opción de la línea de comandos -64d puede solucionar este problema.
Para solucionar este problema en adaptadores basados en Intel® Ethernet
X710 o XL710 debe desactivar NPar y NParEP. Tambn puede poner el
sistema en modo de inicio de UEFI.
PXE-E00: This system does not
have enough free conventional
memory (Este sistema no tiene
suficiente memoria
convencional libre). The Intel
Boot Agent cannot continue
(Intel Boot Agent no puede
continuar).
El sistema no tiene suficiente memoria para ejecutar la imagen PXE. Intel Boot
Agent no pudo encontrar suficiente memoria base disponible (por debajo de
640 K) para instalar el software de cliente PXE. El sistema no puede iniciarse
mediante PXE con la configuración actual. El error devuelve el control al BIOS y
el sistema no intenta el inicio remoto. Si persiste este error, intente actualizar el
BIOS del sistema a la versión más reciente. ngase en contacto con el
administrador del sistema o con la asistencia al cliente del distribuidor del
sistema para solucionar este problema.
PXE-E01: PCI Vendor and
Device IDs do not match! (El
proveedor PCI y el ID del
dispositivo no concuerdan).
El proveedor de la imagen y la identificación del dispositivo no coinciden con
los que se encuentran en la tarjeta. Compruebe que la imagen flash adecuada
está instalada en el adaptador.
PXE-E04: Error reading PCI
configuration space (Error de
lectura del espacio de
configuración). The Intel Boot
Agent cannot continue (Intel
Boot Agent no puede
continuar).
El espacio de configuración PCI no se pudo leer. Probablemente la máquina no
es compatible con PCI. Intel Boot Agent no pudo leer uno o varios de los
registros de configuración PCI del adaptador. Puede que el adaptador esté mal
configurado o que tenga instalada una imagen incorrecta de Intel Boot Agent.
Intel Boot Agent devolve el control al BIOS y no intentará el inicio remoto.
Intente actualizar la imagen de la memoria Flash. Si esto no resuelve el
problema, póngase en contacto con el administrador del sistema o con la
Asistencia al cliente de Intel.
PXE-E05: The LAN adapter's La EEPROM del adaptador está dañada. Intel Boot Agent ha determinado que
configuration is corrupted or
has not been initialized. (PXE-
E05: La configuración del
adaptador LAN está dañada o
no se ha inicializado). The Intel
Boot Agent cannot continue
(Intel Boot Agent no puede
continuar).
la suma de comprobación de la EEPROM del adaptador es incorrecta. El
agente devolve el control al BIOS y no intenta el inicio remoto. Intente
actualizar la imagen de la memoria Flash. Si esto no resuelve el problema,
ngase en contacto con el administrador del sistema o con la Asistencia al
cliente de Intel.
PXE-E06: Option ROM requires
DDIM support (La ROM de
opción requiere la admisión de
DDIM).
El sistema BIOS no es compatible con DDIM. El BIOS no es compatible con la
asignación de las ROM de ampliación PCI en la memoria superior, tal como lo
requiere la especificación PCI. Intel Boot Agent no puede funcionar en este
sistema. Intel Boot Agent devuelve el control al BIOS y no intenta el inicio
remoto. Qui pueda solucionar el problema actualizando el BIOS del sistema.
Si esto no soluciona el problema, póngase en contacto con el administrador del
sistema o con la asistencia al cliente del distribuidor del sistema para
solucionarlo.
PXE-E07: PCI BIOS calls not
supported (No se admiten las
llamadas PCI BIOS).
Los servicios PCI del nivel BIOS no están disponibles. Probablemente la
máquina no es compatible con PCI.
PXE-E09: Unexpected UNDI
loader error (Error inesperado
del cargador de UNDI). Status
== xx (Estado == xx)
El cargador UNDI ha devuelto un estado de error desconocido. xx es el estado
devuelto.
PXE-E0C: Firmware recovery
mode detected (PXE-E0C:
Modo de recuperación de
firmware detectado) Fallo de
inicialización.
El adaptador está en el modo de recuperación de firmware. Consulte la sección
"Modo de recuperación de firmware" de este documento para obtener más
información.
PXE-E20: BIOS extended
memory copy error (Error de
copia de memoria ampliada
BIOS).
BIOS no pudo mover la imagen a la memoria ampliada.
PXE-E20: BIOS extended
memory copy error (Error de
copia de memoria ampliada
BIOS). AH == xx
El error se produjo mientras se intentaba copiar la imagen a la memoria
ampliada. xx es el código de fallos de BIOS.
PXE-E51: No DHCP or BOOTP
offers received (No se
recibieron ofertas de DHCP o
BOOTP).
Intel Boot Agent no recibió ninguna respuesta de DHCP o BOOTP a su solicitud
inicial. Asegúrese de que el servidor DHCP (o el servidor proxyDHCP si uno
está en uso) está configurado correctamente y tiene suficientes direcciones IP
para asignar. Si por el contrario está utilizando BOOTP, aserese de que el
servicio BOOTP se esté ejecutando y que está configurado correctamente.
PXE-E53: No boot filename
received (No se recib el
nombre del archivo de inicio).
Intel Boot Agent recib una oferta de DHCP o BOOTP, pero no ha recibido un
nombre de archivo válido para descargar. Si está utilizando PXE, verifique la
configuración de PXE y BINL. Si está utilizando BOOTP, aserese de que el
servicio esté en ejecución y que la ruta espefica y el nombre de archivo son
correctos.
PXE-E61: Media test failure
(Error de prueba de medio).
El adaptador no detecta un enlace. Asegúrese de que el cable funciona y que
está conectado a un concentrador o conmutador que funciona. La luz de
conexión que se ve desde la parte posterior del adaptador debe estar
encendida.
PXE-EC1: Base-code ROM ID
structure was not found (No se
encontró la estructura de ID de
ROM de código base).
No se pudo ubicar un código base. Se insta una imagen de memoria Flash
incorrecta o la imagen está dañada. Intente actualizar la imagen de la memoria
Flash.
PXE-EC3: BC ROM ID structure
is invalid (La estructura de ID
de BC ROM no es válida).
No se pudo instalar el código base. Se instaló una imagen de memoria Flash
incorrecta o la imagen está dañada. Intente actualizar la imagen de la memoria
Flash.
PXE-EC4: UNDI ID structure
was not found (No se encont
la estructura de ID de UNDI).
La firma de la estructura de ID de ROM UNDI es incorrecta. Se instaló una
imagen de memoria Flash incorrecta o la imagen está dañada. Intente
actualizar la imagen de la memoria Flash.
PXE-EC5: UNDI ROM structure
is invalid (La estructura de ID
de UNDI ROM no es válida).
La longitud de la estructura es incorrecta. Se instaló una imagen de memoria
Flash incorrecta o la imagen está dañada. Intente actualizar la imagen de la
memoria Flash.
PXE-EC6: UNDI driver image is
invalid (La imagen del
controlador UNDI no es válida).
La firma de la imagen del controlador UNDI no es válida. Se instaló una imagen
de memoria Flash incorrecta o la imagen está dañada. Intente actualizar la
imagen de la memoria Flash.
PXE-EC8: !PXE structure was
not found in UNDI driver code
segment (La estructura !PXE no
se encontró en el segmento de
código del controlador UNDI).
Intel Boot Agent no pudo ubicar el recurso de estructura !PXE necesario. Se
instaló una imagen de memoria Flash incorrecta o la imagen está dañada.
Intente actualizar la imagen de la memoria Flash.
La causa puede ser la asignación de un registro de direcciones base (BAR) de
64 bit al puerto de red por parte del sistema BIOS. Ejecutar la utilidad BootUtil
con la opción de la línea de comandos -64d puede solucionar este problema.
PXE-EC9: PXENV + structure
was not found in UNDI driver
code segment (La estructura
PXENV+ no se encontró en el
segmento de digo del
controlador UNDI).
Intel Boot Agent no pudo ubicar la estructura PXENV+ necesaria. Se instaló una
imagen de memoria Flash incorrecta o la imagen está dañada. Intente
actualizar la imagen de la memoria Flash.
PXE-M0F: Exiting Intel Boot
Agent (Saliendo de Intel Boot
Agent.)
Ending execution of the ROM image (Finaliza la ejecución de la imagen ROM).
This option has been locked
and cannot be changed (Esta
opción está bloqueada y no
puede cambiarse).
Ha intentado cambiar los valores de configuración que han sido bloqueados
por el administrador del sistema con IBAUtil. Este mensaje puede aparecer
tanto desde la ficha Opciones de inicio de Intel® PROSet cuando se encuentra
en Windows*, como desde el menú de configuración en un entorno autónomo.
Si cree que debería poder cambiar esta opción, consulte al administrador del
sistema.
PXE-M0E: Retrying network
boot, press ESC to cancel
(Reintentando el inicio de red,
pulse ESC para cancelar).
Intel Boot Agent no pudo completar el inicio de red debido a un error de red (tal
como no recibir una oferta DHCP). Intel Boot Agent continua intentando iniciar
desde la red hasta que lo consiga o hasta que el usuario lo cancele. Esta
función está deshabilitada de forma predeterminada. Para obtener información
sobre la habilitación de esta función, comuníquese con la Asistencia al cliente
de Intel.
Procedimientos de resolución de problemas de Intel Boot Agent
Problemas comunes
La siguiente lista de problemas y las soluciones asociadas abarcan un grupo representativo de problemas que puede
encontrar al utilizar Intel Boot Agent.
Mi equipo tiene problemas después de iniciarse
Después de que el producto Intel® Boot Agent haya terminado su tarea (inicio remoto), ya no tiene ningún efecto
sobre el funcionamiento del equipo cliente. En consecuencia, es muy factible que cualquier aspecto que surja
después de haber completado el proceso de inicio no esté relacionado con el producto Intel Boot Agent.
Si tiene problemas con el sistema operativo local (del cliente) o de red, póngase en contacto con el fabricante del
sistema si necesita ayuda. Si tiene problemas con alguna aplicación, póngase en contacto con el fabricante de la
misma si necesita ayuda. Si tiene problemas con aln componente de hardware del equipo o con el BIOS, póngase
en contacto con el fabricante del equipo para obtener ayuda.
No se puede cambiar el orden de inicio
Si está acostumbrado a cambiar la definición del orden de inicio del sistema mediante el programa de configuración
del BIOS de la placa madre, las opciones predeterminadas del programa de configuración de Intel Boot Agent podrían
tener precedencia sobre esta configuración. Para cambiar la secuencia de inicio, primero debe cambiar los valores
por defecto del programa de configuración de Intel Boot Agent. Aparece un menú de configuración, que le permite
establecer los valores de configuración de Intel Boot Agent. Para cambiar la configuración del orden de inicio del
equipo, consulte la sección Configuración del Boot Agent en un entorno PXE previo al inicio.
Mi equipo no completa la secuencia POST
Si el equipo no se inicia con un adaptador instalado pero lo hace cuando extrae el adaptador, traslade el adaptador
a otro equipo y use BootUtil para deshabilitar la ROM flash.
Si esto no funciona, posiblemente el problema se produce antes de que el software Intel Boot Agent comience a
funcionar. Si es así, es posible que exista un problema de BIOS en el sistema. ngase en contacto con el grupo de
asistencia al cliente del fabricante del equipo para obtener ayuda y corregir el problema.
Existen problemas de configuración u operación en el proceso de inicio
Si el cliente PXE recibe una dirección DHCP pero falla en el inicio, esto significa que el cliente PXE funciona
correctamente. Revise la configuración de la red o del servidor PXE para resolver el problema. ngase en contacto
con la Asistencia al cliente de Intel si necesita ayuda adicional.
La ROM opcional PXE no sigue la especificación PXE con respecto al ciclo final de detección
Para evitar largos periodos de espera, la ROM opcional ya no incluye el ciclo final de detección de 32 segundos. Si no
ha habido respuesta en el ciclo de 16 segundos previo, es muy probable que tampoco la haya durante el ciclo final de
32 segundos.
Configuración de Arranque iSCSI
Instalación de iniciador de iSCSI
Configuración de Arranque iSCSI de Ethernet Intel
®
en un iniciador de cliente de
Microsoft* Windows*
Requisitos
1. Aserese de que el sistema iniciador de iSCSI inicie el firmware de iSCSI Boot. El firmware debe configurarse
de forma debida y debe tener capacidad para conectarse al destino de iSCSI y detectar el disco de inicio.
2. Necesitará el Iniciador iSCSI de Microsoft* con soporte de inicio de software integrado. Esta versión de inicio
del iniciador está disponible aquí.
3. Para habilitar la función de volcado de bloqueo, siga los pasos indicados en Compatibilidad con volcado de
bloqueo.
Configuración de Arranque iSCSI de Ethernet Intel
®
en un iniciador de cliente Linux*
1. Instale las utilidades del iniciador de Open-iSCSI.
#yum -y install iscsi-inititator-utils
2. Consulte el archivo README en https://github.com/mikechristie/open-iscsi.
3. Configure su conjunto iSCSI para permitir el acceso.
a. Examine /etc/iscsi/initiatorname.iscsi para comprobar el nombre del iniciador de host de Linux.
b. Actualice el administrador de volumen con este nombre de iniciador de host.
4. Establezca iscsi para que se inicie en el arranque.
#chkconfig iscscd on
#chkconfig iscsi on
5. Inicie el servicio iSCSI (192.168.x.x es la dirección IP de su destino).
#iscsiadm -n discovery -t s -p 192.168.x.x
Observe los nombres de destino que devuelve la detección de iscsi.
6. Inicie sesión en el destino (-m XXX -T is XXX -l XXX -).
iscsiadm -m node -T iqn.2123-01.com:yada:yada: -p 192.168.2.124 -l
Configuración de POST del Arranque iSCSI
El Arranque iSCSI de Ethernet Intel® incluye un menú de configuración que permite que dos puertos de red de un
sistema se habiliten como dispositivos de iSCSI Boot. Para configurar Intel® iSCSI Boot, encienda o restablezca el
sistema y presione las teclas Ctrl-D cuando aparezca el mensaje "Press <Ctrl-D> to run setup..." (Pulse
<Ctrl-D> para ejecutar la configuración). Tras pulsar las teclas Ctrl-D, se abri el menú Intel® iSCSI Boot Port
Selection Setup (Configuración de selección de puerto de Intel® iSCSI Boot).
NOTA: al iniciar un sistema operativo desde un disco local, el Arranque iSCSI de Ethernet Intel® debe
deshabilitarse para todos los puertos de red.
Menú de selección de puerto de Arranque iSCSI de Ethernet Inte
La primera pantalla del menú Intel® iSCSI Boot Setup (Configuración de Intel® iSCSI Boot) muestra una lista de los
adaptadores que admiten Intel® iSCSI Boot. Se muestra el ID de dispositivo PCI, la ubicación del bus, el dispositivo y
la función PCI, y un campo que indica el estado del Arranque iSCSI de Ethernet Intel® para cada uno de los puertos
de adaptador. Se pueden visualizar hasta 10 puertos con capacidad para iSCSI Boot en el menú Port Selection
(Selección de puerto). Si existen más adaptadores con capacidad para Intel® iSCSI Boot, no figuran en el menú de
configuración.
El uso de este menú se describe a continuación:
l Para seleccionar un puerto de red del sistema como el puerto de inicio primario, presione la tecla 'P' tras
resaltarlo. El puerto de inicio primario es el primer puerto que Intel® iSCSI Boot utiliza para la conexión con el
destino de iSCSI. Solamente se puede seleccionar un puerto como el puerto de inicio primario.
l Para seleccionar un puerto de red del sistema como el puerto de inicio secundario, presione la tecla 'S' tras
resaltarlo. El puerto de inicio secundario solamente se usa para la conexión con el destino de iSCSI si el
puerto de inicio primario no logra establecer una conexión. Solamente se puede seleccionar un puerto como el
puerto de inicio secundario.
l Si pulsa la tecla 'D' con un puerto de red resaltado, se deshabilita el Arranque iSCSI de Ethernet Intel® en ese
puerto.
l Si pulsa la tecla 'B' con un puerto de red resaltado, se hará parpadear un LED en ese puerto.
l Pulse la tecla Esc para salir de la pantalla.
Menú de configuración específica de puerto de Arranque iSCSI de Ethernet Inte
El menú de configuración de iSCSI específica de puerto tiene cuatro opciones:
l Intel® iSCSI Boot Configuration (Configuración de inicio de Intel® iSCSI): si selecciona esta opción, regresa
al menú iSCSI Boot Configuration Setup (Configuración de iSCSI Boot). El menú iSCSI Boot Configuration se
describe de forma detallada en la sección siguiente y le permitirá configurar los parámetros de iSCSI para el
puerto de red seleccionado.
l CHAP Configuration (Configuración de CHAP): si se selecciona esta opción se abre la pantalla CHAP
Configuration (Configuración de CHAP). El menú CHAP Configuration se describe en detalle en la sección
siguiente.
l Discard Changes and Exit (Descartar cambios y salir): si se selecciona esta opción, se descartan todos los
cambios realizados en las pantallas de configuración iSCSI Boot Configuration (Configuración de iSCSI Boot)
y CHAP Configuration (Configuración de CHAP), y volverá al menú iSCSI Boot Port Selection (Selección de
puerto de iSCSI Boot).
l Save Changes and Exit (Guardar cambios y salir): si selecciona esta opción, todos los cambios realizados en
las pantallas de configuración iSCSI Boot Configuration (Configuración de iSCSI Boot) y CHAP Configuration
(Configuración de CHAP) se guardan. Tras seleccionar esta opción, se regresa al menú iSCSI Boot Port
Selection (Selección de puerto de iSCSI Boot).
Menú de configuración de Arranque iSCSI Intel®
En el menú Intel® iSCSI Boot Configuration (Configuración de Intel® iSCSI Boot), puede configurar los pametros de
iSCSI Boot y Protocolo de Internet (IP) para un puerto espefico. Los ajustes de iSCSI pueden configurarse
manualmente o recuperarse de forma dinámica desde un servidor DHCP.
A continuación, se enumeran las opciones del menú Intel® iSCSI Boot Configuration (Configuración de Intel® iSCSI
Boot):
l Use Dynamic IP Configuration (DHCP) (Usar configuración de IP dinámica [DHCP]): si selecciona esta casilla
de verificación, iSCSI Boot intentará obtener la dirección IP del cliente, la máscara de subred y la dirección IP
de la puerta de enlace a tras de un servidor DHCP. Si se deshabilita esta casilla, estos campos no están
visibles.
l Initiator Name (Nombre de iniciador): escriba el nombre del iniciador de iSCSI que utiliza Intel® iSCSI Boot
al establecer conexión con un destino de iSCSI. El valor especificado en este campo es global y lo usan todos
los puertos del sistema habilitados para iSCSI Boot. Este campo puede quedar en blanco si se habilita la
casilla "Use DHCP For Target Configuration" (Usar DHCP para configuración de destino). Para obtener
información sobre la recuperación del nombre del iniciador de iSCSI a través de un servidor DHCP, consulte la
sección Configuración del servidor DHCP.
l Initiator IP (IP de Iniciador): escriba en este campo la dirección IP del cliente que se utilizará en este puerto
como configuración IP estática. El puerto utilizará esta dirección IP durante toda la sesión de iSCSI. Esta
opción está visible si DHCP no está habilitado.
l Subnet Mask (Máscara de Subred): escriba en este campo la máscara de subred IP. Debería ser la scara
de subred IP que se utiliza en la red a la que se conectará el puerto seleccionado para iSCSI. Esta opción está
visible si DHCP no está habilitado.
l Gateway IP (IP de Puerta de Enlace): escriba en este campo la dirección IP de la puerta de enlace de red. Este
campo es necesario si el destino de iSCSI está ubicado en una subred distinta a donde se encuentra el puerto
de Intel® iSCSI Boot seleccionado. Esta opción está visible si DHCP no está habilitado.
l Use DHCP for iSCSI Target Information (Usar DHCP para información de destino iSCSI): si se selecciona
esta casilla, Intel® iSCSI Boot intentará obtener la dirección IP, número de puerto IP, nombre de destino iSCSI
e ID de LUN SCSI de un servidor DHCP que haya en la red. Para obtener información sobre cómo configurar
los pametros de destino iSCSI mediante DHCP, consulte la sección Configuración del servidor DHCP. Si se
deshabilita esta casilla, estos campos no están visibles.
l Target Name (Nombre de Destino): escriba en este campo el nombre de IQN del destino de iSCSI. Esta opción
está visible si no está habilitado DHCP para el destino de iSCSI.
l Target IP (IP de Destino): escriba en este campo la dirección IP del destino de iSCSI. Esta opción está visible
si no está habilitado DHCP para el destino de iSCSI.
l Target Port (Puerto de Destino):mero de puerto TCP.
l Boot LUN (LUN de Disco de Inicio): Escriba en este campo la ID de LUN del disco de inicio en el destino de
iSCSI. Esta opción está visible si no está habilitado DHCP para el destino de iSCSI.
Configuración de CHAP iSCSI
Intel® iSCSI Boot admite la autenticación de CHAP MD5 con un destino de iSCSI. Intel® iSCSI Boot utiliza el algoritmo
"MD5 Message Digest" desarrollado por RSA Data Security, Inc.
El menú Configuración de CHAP iSCSI tiene las opciones siguientes para habilitar la autenticación de CHAP:
l Use CHAP: si se selecciona esta casilla se habilitará la autenticación CHAP en este puerto. CHAP permite al
destino autenticar el iniciador. Tras habilitar la autenticación CHAP, debe especificarse un nombre de usuario
y una contraseña de destino.
l User Name: escriba en este campo el nombre de usuario de CHAP. Debe ser el mismo nombre de usuario de
CHAP configurado en el destino de iSCSI.
l Target Secret: escriba en este campo la contraseña de CHAP. Debe ser igual a la contraseña de CHAP
configurada en el destino de iSCSI y debe tener una extensión de entre 12 y 16 caracteres. Esta contraseña no
puede ser igual a la de Initiator Secret.
l Use Mutual CHAP: si se selecciona esta casilla se habilitará la autenticación Mutual CHAP en este puerto.
Mutual CHAP permite al iniciador autenticar el destino. Tras habilitar la autenticación Mutual CHAP, debe
escribirse una contraseña del iniciador. Solo podrá seleccionarse Mutual CHAP si se selecciona la opción
"Use CHAP".
l Initiator Secret: escriba en este campo la contraseña de Mutual CHAP. También debe configurarse esta
contraseña en el destino de iSCSI y debe tener una extensión de entre 12 y 16 caracteres. Esta contraseña no
puede ser igual a la de Target Secret.
La función de autenticación de CHAP de este producto requiere los siguientes reconocimientos:
Este producto incluye software criptográfico escrito por Eric Young (eay@cryptsoft.com). Este producto incluye
software escrito por Tim Hudson (tjh@cryptsoft.com).
Este producto incluye software desarrollado por The OpenSSL Project para que se utilice en el OpenSSL Toolkit.
(http://www.openssl.org/).
Inte PROSet para el Administrador de dispositivos de Windows*
Muchas de las funciones del menú Intel® iSCSI Boot Port Selection Setup (Configuración de selección de puerto de
Intel® iSCSI Boot) también pueden configurarse o revisarse desde el Administrador de dispositivos de Windows. Abra
la hoja de propiedades del adaptador y seleccione la ficha Data Options (Opciones de datos). Debe instalar los
controladores y el software más recientes del adaptador de Intel Ethernet para acceder a esta ficha.
Configuración de destino de Arranque iSCSI
Para obtener información espefica sobre la configuración del sistema de destino de iSCSI y del volumen de disco,
consulte las instrucciones proporcionadas por el proveedor del sistema o del sistema operativo. A continuación se
enumeran los pasos básicos necesarios para la configuración del Arranque iSCSI de Ethernet Intel® a fin de que
funcione con la mayoría de los sistemas de destino de iSCSI. Los pasos específicos varian en función del
proveedor.
NOTAS:
l Para ser compatible con iSCSI Boot, el destino debe ser capaz de admitir varias sesiones del mismo
iniciador. Tanto el iniciador del firmware de iSCSI Boot como el iniciador alto del sistema operativo
deben establecer una sesión de iSCSI al mismo tiempo. Ambos iniciadores utilizan el mismo nombre y
dirección IP del iniciador para la conexión y el acceso al disco del sistema operativo, pero estos dos
iniciadores establecen una sesión de iSCSI distinta. Para que el destino sea compatible con iSCSI
Boot, debe ser capaz de admitir varias sesiones e inicios de sesión de cliente.
l Si establece el cliente en modo de arranque de BIOS y el servidor de arranque de destino es un destino
Linux, es posible que el cliente no pueda arrancar y aparezca un mensaje de error que indica que no se
ha encontrado un dispositivo de fase 1 adecuado. Establezca su cliente en el modo de arranque UEFI o
agregue lo siguiente a la línea de comandos del kernel del servidor iSCSI de destino:
rd.net.timeout.carrier=15
1. Configure un volumen de disco en el sistema de destino de iSCSI. Anote el ID de LUN del volumen para
utilizarlo al configurar el firmware del Arranque iSCSI de Ethernet Intel®.
2. Anote el nombre completo de iSCSI (IQN) del destino de iSCSI, que probablemente tendrá este aspecto:
iqn.1986-03.com.intel:target1
Este valor se utiliza como nombre del destino de iSCSI al configurar el firmware deI Arranque iSCSI de
Ethernet Intel® del sistema iniciador.
3. Configure el sistema de destino de iSCSI para que acepte la conexión iSCSI del iniciador de iSCSI. Por lo
general, esto requiere la especificación del nombre IQN o de la dirección MAC del iniciador a fin de permitir
que el iniciador tenga acceso al volumen de disco. Consulte la sección Configuración del firmware para
obtener información sobre la definición del nombre del iniciador de iSCSI.
4. El protocolo de autenticación unidireccional se puede habilitar de forma opcional para comunicaciones
seguras. El Protocolo de autenticación por desafío mutuo (CHAP) se habilita mediante la configuración del
nombre de usuario y la contraseña en el sistema de destino de iSCSI. Para configurar CHAP en el iniciador de
iSCSI, consulte la sección Configuración del firmware a fin de obtener más información.
Arranque desde destinos de más de 2 TB
Puede conectarse e iniciar desde un LUN de destino de más de 2 Terabytes con las restricciones siguientes:
l El tamaño de bloque en el destino debe ser de 512 bytes.
l Los sistemas operativos siguientes son compatibles:
l VMware* ESXi 5.5 o posterior
l Red Hat* Enterprise Linux* 6.3 o posterior
l SUSE* Enterprise Linux 11SP2 o posterior
l Microsoft* Windows Server* 2012 R2 o posterior
l Solo podrá tener acceso a los datos dentro de los primeros 2 TB.
NOTA: el controlador del volcado de bloqueo no admite los LUN de destino de s de 2 TB.
Configuración del servidor DHCP
Si utiliza el Protocolo de configuración dinámica de host (DHCP), el servidor DHCP debe configurarse a fin de
proporcionar las configuraciones de iSCSI Boot al iniciador de iSCSI. Debe configurar el servidor DHCP para
especificar la opción 17 Root Path (Ruta raíz) y la opción 12 Host Name (Nombre de host) para responder al iniciador
de iSCSI con la información de destino de iSCSI. Podría ser necesario especificar la opción 3 de DHCP, Router List
(Lista de routers), sen la configuración de red.
Opción 17 Root Path (Ruta raíz) de DHCP:
la cadena de configuración de la opción de ruta raíz de iSCSI utiliza el formato siguiente:
iscsi:<nombre de servidor o dirección IP>:<protocolo>:<puerto>:<LUN>:<nombre de
destino>
l Nombre de servidor: nombre del servidor iSCSI o cadena literal de dirección
IPv4 válida.
Ejemplo: 192.168.0.20.
l Protocolo: protocolo de transporte utilizado por ISCSI. El valor predeterminado
es tcp (6).
Actualmente no hay compatibilidad con ningún otro protocolo.
l Puerto: elmero de puerto de destino de iSCSI. Se utiliza el valor
predeterminado de 3260 si se deja este campo en blanco.
l LUN: el ID de LUN que se ha configurado en el sistema de destino de iSCSI. El
valor predeterminado es cero.
l Nombre de destino: nombre del destino de iSCSI que identifica de forma
exclusiva un destino de iSCSI en formato IQN.
Ejemplo: iqn.1986-03.com.intel:target1
Opción 12 Host Name (Nombre de host) de DHCP:
Configure la opción 12 con el nombre de host del iniciador de iSCSI.
Opción 3, Router List (Lista de routers) de DHCP:
Configure la opción 3 con la dirección IP de la puerta de enlace o del router, si el iniciador de
iSCSI y el destino de iSCSI se encuentran en distintas subredes.
Creación de una imagen iniciable para un destino iSCSI
Hay dos maneras de crear una imagen iniciable en un destino iSCSI:
l Instalarla directamente en una unidad de disco duro en un conjunto de almacenamiento iSCSI (instalación
remota).
l Instalarla en una unidad de disco local y transferir dicha unidad de disco o imagen de SO a un destino iSCSI
(instalación local).
Microsoft* Windows*
Microsoft* Windows Server* admite de fábrica la instalación en un destino iSCSI que carezca de disco local y tambn
admite el inicio iSCSI del sistema operativo. Consulte las instrucciones de instalación de Microsoft y la documentación
de Windows Deployment Services (Servicios de implementación de Windows) para obtener más información.
SUSE* Linux Enterprise Server
Para que sea muy sencillo instalar Linux en un destino iSCSI, debe utilizar SLES10 o una versión superior. SLES10
ofrece compatibilidad propia con el inicio y la instalación de iSCSI. Esto significa que no es necesario realizar otros
pasos fuera del instalador para instalarlo en un destino de iSCSI mediante un adaptador de Intel Ethernet Server.
Consulte la documentación de SLES10, donde encontrará instrucciones sobre mo instalarlo en una LUN iSCSI.
Red Hat Enterprise Linux
Para que sea muy sencillo instalar Linux en un destino iSCSI, debe utilizar RHEL 5.1 o una versión superior. RHEL
5.1 ofrece compatibilidad propia con el inicio y la instalación de iSCSI. Esto significa que no es necesario realizar
otros pasos fuera del instalador para instalarlo en un destino de iSCSI mediante un adaptador de Intel Ethernet
Server. Consulte la documentación de RHEL 5.1, donde encontra instrucciones sobre cómo instalarlo en una LUN
iSCSI.
Compatibilidad de volcado de bloqueo iSCSI de Microsoft Windows Server
El controlador de volcado de bloqueo Intel iSCSI admite la generación del archivo de volcado de bloqueo en los
sistemas Windows Server x64 con inicio iSCSI. Para asegurar que se cree un volcado completo de la memoria:
1. Ajuste el tamaño del archivo de paginación de forma que sea igual o superior a la cantidad de RAM instalada
en el sistema, lo cual es necesario para un volcado completo de la memoria.
2. Aserese de que la cantidad de espacio libre en el disco duro pueda admitir la cantidad de RAM instalada en
el sistema.
Para configurar la compatibilidad con el volcado de bloqueo, siga estos pasos:
1. Configure Windows iSCSI Boot.
2. Si no lo ha hecho ya, instale los controladores más recientes del adaptador Intel Ethernet e Intel PROSet para
el Administrador de dispositivos de Windows.
3. Abra Intel PROSet para el Administrador de dispositivos de Windows y seleccione la ficha Opciones de inicio.
4. En Configuración, seleccione ISCSI Remote Boot Crash Dump (Volcado de bloqueo de ISCSI Boot) y el valor
habilitado, y haga clic en Aceptar.
Resolucn de problemas de iSCSI
En la siguiente tabla se describen los problemas que podrían presentarse al utilizar el Arranque iSCSI de Ethernet
Intel®. Se proporciona una causa posible y una solución para cada uno de los problemas.
Problema Solución
El Arranque iSCSI de
Ethernet Intel® no se
carga durante el inicio del
sistema y no se visualiza
la pantalla de inicio de
sesión.
l Si bien la pantalla de inicio de sesión del sistema puede visualizarse por s
tiempo durante el inicio del sistema, Arranque iSCSI de Ethernet Intel® no
pod visualizarse durante la POST. Es posible que sea necesario
deshabilitar una función del BIOS del sistema para ver los mensajes del
Arranque remoto iSCSI de Ethernet Intel®. En el me de BIOS del sistema,
deshabilite cualquier opción que tenga que ver con inicios silenciosos o
rápidos. También deshabilite cualquier pantalla de bienvenida del BIOS.
Estas opciones podrían suprimir la salida del Arranque remoto iSCSI de
Ethernet Intel®.
l El Arranque remoto iSCSI de Ethernet Intel® no se ha instalado en el
adaptador o está deshabilitada la ROM flash del adaptador. Actualice el
adaptador de red con la versión más reciente de BootUtil tal como se
describe en la sección Igenes flash de este documento. Si BootUtil informa
que la ROM flash está deshabilitada, utilice el comando "BootUtil -
flashenable" para habilitar la ROM flash y actualizar el adaptador.
l El BIOS del sistema podría estar suprimiendo la salida del arranque iSCSI de
Ethernet Intel®.
l Es probable que no haya memoria del BIOS del sistema suficiente para
cargar el Arranque iSCSI de Ethernet Intel®. Intente deshabilitar los
controladores y dispositivos de disco que no se utilicen en el menú de
configuración del BIOS. Los controladores SCSI, el controlador RAID, las
conexiones de red habilitadas PXE y la vigilancia del BIOS del sistema
reducen el área de memoria disponible para el Arranque iSCSI de Ethernet
Intel® Deshabilite estos dispositivos y reinicie el sistema para ver si Intel
iSCSI Boot logra inicializarse. Si tras deshabilitar los dispositivos en el menú
de BIOS del sistema no se resuelve el problema, entonces intente quitar los
dispositivos o controladores de disco que no se utilicen del sistema. Algunos
fabricantes de sistema permiten que se deshabiliten los dispositivos no
utilizados mediante la configuración de puentes.
Tras la instalación del
Arranque iSCSI de
Ethernet Intel®, el sistema
no se inicia en un disco
local o en un dispositivo
de inicio de red. El sistema
no responde tras la
visualización de la
pantalla de inicio de
sesión del Arranque iSCSI
de Ethernet Intel® o tras la
conexión al destino de
iSCSI.
l Se produjo un error de sistema crítico durante la inicialización de iSCSI
Remote Boot. Encienda el sistema y pulse la tecla 'S' o 'ESC' antes de que se
inicialice el Arranque remoto iSCSI de Ethernet Intel®. De esta forma se omite
el proceso de inicialización del Arranque iSCSI de Ethernet Intel® y se
permite que el sistema se inicie en una unidad local. Use la utilidad BootUtil
para realizar la actualización a la versión más reciente del Arranque remoto
iSCSI de Ethernet Intel®
l La actualización de la BIOS del sistema también puede resolver el problema.
"Arranque iSCSI de
Ethernet Intel®" no
figura como dispositivo de
inicio en el menú de
dispositivos de inicio del
BIOS del sistema.
l Es probable que el BIOS del sistema no admita Arranque iSCSI de Ethernet
Intel®. Actualice el BIOS del sistema con la versión más reciente disponible a
través del proveedor del sistema.
l Podría haber un conflicto con otro dispositivo instalado. Intente deshabilitar
los controladores de disco y de red que no se utilicen. Se sabe que algunos
controladores SCSI y RAID ocasionan problemas de compatibilidad con Intel
iSCSI Remote Boot.
Mensaje de error
mostrado:
"Failed to detect link" (No
se pudo detectar el
enlace)
l El Arranque iSCSI de Ethernet Intel® no logró detectar el enlace en el puerto
de red. Vea la luz de detección denculo en la parte posterior de la conexión
de red. La luz denculo debe encenderse en verde cuando se ha
establecido unnculo con el asociado denculo. Si se ilumina la luz de
conexión pero se sigue recibiendo el mensaje de error, intente ejecutar las
pruebas de diagnóstico de conexión y de cables de Intel mediante Intel
PROSet para Windows.
Mensaje de error
mostrado:
"DHCP Server not found!"
(¡Servidor DHCP no
encontrado!)
iSCSI se configuró para que recupere una dirección IP desde DHCP pero ningún
servidor DHCP respondió a la solicitud de detección de DHCP. Este problema poda
tener varias causas:
l Es probable que el servidor DHCP haya utilizado todas las reservaciones de
dirección IP disponibles.
l El sistema iSCSI cliente podría requerir la asignación de direcciones IP
estáticas en la red con la que se establece conexión.
l Es probable que no haya ningún servidor DHCP presente en la red.
l Es probable que el Protocolo de árbol de expansión (STP) del conmutador de
red esté evitando que el puerto de Arranque iSCSI de Ethernet Intel® se
comunique con el servidor DHCP. Consulte la documentación del
conmutador de red acerca de cómo deshabilitar el Protocolo de árbol de
expansión.
Mensaje de error
mostrado:
"PnP Check Structure is
invalid!" (¡Estructura no
válida de verificación
PnP!)
l El Arranque iSCSI de Ethernet Intel® no logró detectar un BIOS PCI de PnP
válido. Si aparece este mensaje, quiere decir que el Arranque iSCSI de
Ethernet Intel® no puede ejecutarse en el sistema en cuestión. Se requiere
un BIOS PCI totalmente compatible con PnP a fin de ejecutar el Arranque
remoto iSCSI de Ethernet Intel®.
Mensaje de error
mostrado:
"Invalid iSCSI connection
information" (Información
de conexión iSCSI no
válida)
l La información de configuración iSCSI recibida de DHCP o configurada de
forma estática en el menú de configuración está incompleta y no se pudo
completar un intento de inicio de sesión en el sistema de destino de iSCSI.
Verifique que el nombre del iniciador de iSCSI, el nombre del destino de
iSCSI, la dirección IP de destino y elmero de puerto de destino se hayan
configurado de forma debida en el menú de configuración de iSCSI (para la
configuración estática) o en el servidor DHCP (para la configuración
dinámica de BOOTP).
Mensaje de error
mostrado:
"Unsupported SCSI disk
block size!" (¡Tamaño no
compatible de bloque de
disco SCSI!)
l El sistema de destino de iSCSI se ha configurado para utilizar un tamaño de
bloque de disco que no admite Arranque iSCSI de Ethernet Intel®. Configure
el sistema de destino de iSCSI para que utilice un tamaño de bloque de disco
de 512 bytes.
Mensaje de error
mostrado:
"ERROR: Could not
establish TCP/IP
connection with iSCSI
target system" (no se pudo
establecer una conexión
TCP/IP con el sistema de
destino de iSCSI)
l Intel Ethernet iSCSI Boot no logró establecer una conexión TCP/IP con el
sistema de destino de iSCSI. Verifique que la configuración de dirección IP,
máscara de subred, puerto y puerta de enlace del iniciador y del destino se
hayan definido de forma debida. Verifique dicha configuración en el servidor
DHCP, si corresponde. Compruebe que el sistema de destino de iSCSI esté
conectado a una red a la que tenga acceso el iniciador del Arranque remoto
iSCSI de Ethernet Intel®. Verifique que un firewall no bloquee la conexión.
Mensaje de error
mostrado:
"ERROR: CHAP
authentication with target
failed" (falló la
autenticación CHAP con el
destino)
l El nombre de usuario o el secreto CHAP no coincide con la configuración
CHAP en el sistema de destino de iSCSI. Verifique que la configuración de
CHAP del puerto del Arranque iSCSI de Ethernet Intel® coincida con la
configuración de CHAP del sistema de destino de iSCSI. Deshabilite CHAP
en el menú de configuración de iSCSI Remote Boot, si no se ha habilitado en
el destino.
Mensaje de error
mostrado:
"ERROR: Login request
rejected by iSCSI target
system" (el sistema de
destino de iSCSI rechazó
la solicitud de inicio de
sesión)
l Se envió una solicitud de inicio de sesión al sistema de destino de iSCSI, la
cual fue rechazada. Verifique que la configuración del nombre del iniciador
de iSCSI, el nombre del destino, el número LUN y la autenticación CHAP
coincida con la configuración del sistema de destino de iSCSI. Verifique que
el destino se haya configurado de forma que permita el acceso del iniciador
del Arranque remoto iSCSI de Ethernet Intel® a un LUN.
Durante la instalación de
Linux en NetApp Filer y
tras la detección
satisfactoria del disco
destino, es probable que
se reciban mensajes
similares a los siguientes.
Iscsi-sfnet:hostx: Connect
failed with rc -113: No
route to host
Iscsi-sfnet:hostx:
establish_session failed.
Could not connect to target
l Si se ven estos mensajes, debe deshabilitar las interfaces iSCSI en NetApp
Filer.
l Agregue Continuous=no al archivo iscsi.conf.
Mensaje de error l Se estableció satisfactoriamente una conexión TCP/IP con la dirección IP de
mostrado.
"ERROR: iSCSI target not
found" (no se encontró el
destino de iSCSI)
destino; sin embargo, no se encontró un destino de iSCSI con el nombre
especificado en el sistema de destino. Verifique que los nombres
configurados de destino y del iniciador de iSCSI coincidan con la
configuración del destino de iSCSI.
Mensaje de error
mostrado.
"ERROR: iSCSI target
cannot accept any more
connections" (el destino
de iSCSI no puede
aceptar más conexiones)
l El destino de iSCSI no puede aceptar nuevas conexiones. Este error podría
producirse porque se configuró un límite en el destino de iSCSI o por falta de
recursos (no hay s discos).
Mensaje de error
mostrado.
"ERROR: iSCSI target has
reported an error" (el
destino de iSCSI ha
informado un error)
l Se produjo un error en el destino de iSCSI. Revise el destino de iSCSI para
determinar la causa del error y asegúrese de que su configuración sea la
correcta.
Mensaje de error
mostrado.
"ERROR: There is an IP
address conflict with
another system on the
network." (Hay un conflicto
de direcciòn IP con otro
sistema en la red.)
l Se detectó un sistema en la red que usa la misma dirección IP que el cliente
iSCSI Option ROM.
l Si utiliza una asignación de dirección IP estática, trate de cambiar la dirección
IP a una que no utilice otro cliente de la red.
l Si utiliza una dirección IP asignada por un servidor DHCP, asegúrese de que
no haya clientes en la red que utilicen una dirección IP que entra en conflicto
con el intervalo de direcciones IP que utiliza el servidor DHCP.
Problemas conocidos de iSCSI
Un dispositivo no aparece en el menú de configuración de red del controlador de ciclo de vida
Cuando un dispositivo de arranque iSCSI de Ethernet Intel® está conectado a un LUN de iSCSI en el modo de
arranque del BIOS heredado, el dispositivo no aparece en el menú de configuración de red del controlador de ciclo
de vida.
El filtro QoS no se crea y el tráfico iSCSI se etiqueta con la prioridad 0
En dispositivos basados en el controlador Intel® Ethernet X710, con NPAR activado, si ha conectado el dispositivo a
un conmutador que tiene DCBx activado, el filtro QoS no se crea para la partición NPAR y el tfico iSCSI se etiqueta
con la prioridad 0 en lugar de la prioridad 4. Al reiniciar el sistema se resolverá el problema.
No se puede desinstalar un dispositivo si está configurado como puerto iSCSI primario o secundario.
Desactivar el puerto iSCSI primario también desactiva el puerto secundario. Para arrancar desde el puerto
secundario, mbielo al puerto primario.
iSCSI Remote Boot: conexión opuesta con un objetivo mediante un LOM Broadcom
De forma ocasional, conectar un host de arranque iSCSI a un destino mediante un LOM Broadcom puede provocar
que la conexión falle. Utilice un conmutador entre el host y el destino para evitarlo.
Es posible que el firmware de iSCSI Remote Boot muestre 0.0.0.0 en el campo de dirección IP del servidor DHCP
En un servidor DHCP básico de Linux, el firmware de iSCSI Remote Boot muestra 0.0.0.0 en el campo de dirección IP
de dicho servidor. El firmware de iSCSI Remote Boot comprueba la dirección IP del servidor DHCP a partir del campo
Next-Server (Próximo servidor) del paquete de respuestas de DHCP. No obstante, puede que el servidor DHCP
sico de Linux no establezca este campo de forma predeterminada. Introduzca "Next-Server <IP Address>;" en
dhcpd.conf para ver la dirección IP del servidor DHCP.
Problemas de Arranque iSCSI de Microsoft Windows
El iniciador de Microsoft no se inicia sin un enlace en el puerto de inicio:
Tras la configuración del sistema para el Arranque iSCSI de Ethernet Intel® con dos puertos conectados a un destino
y el inicio correcto del sistema, si más adelante intenta iniciar el sistema solo con el puerto de inicio secundario
conectado al destino, el iniciador de Microsoft reinicia continuamente el sistema.
Para resolver esta limitación, siga estos pasos:
1. Con el editor del Registro, amplíe la siguiente clave del registro:
\System\CurrentControlSet\Services\Tcpip\Parameters
2. Cree un valor DWORD denominado DisableDHCPMediaSense y configure el valor en 0.
Compatibilidad con plataformas iniciadas por el iniciador nativo UEFI iSCSI
A partir de la versión 2.2.0.0, el controlador de volcado de bloqueo de iSCSI adquirió la capacidad de admitir
plataformas iniciadas mediante el iniciador nativo UEFI iSCSI en los adaptadores de red de Intel compatibles. Esto
está disponible en Windows Server o posterior y solo en la arquitectura x64. También deben aplicarse las
correcciones indicadas anteriormente.
Dado que los adaptadores de red de las plataformas UEFI puede que no ofrezcan una ROM opcional antigua de
iSCSI, es posible que la ficha Boot Options de DMIX no disponga del ajuste necesario para habilitar el controlador de
volcado de bloqueo de iSCSI. En tal caso se necesario crear la siguiente entrada de registro:
HKLM\SYSTEM\CurrentControlSet\Control\Class\{4D36E97B-E325-11CE-BFC1-
08002BE10318}\<InstanceID>\Parameters
DumpMiniport REG_SZ iscsdump.sys
Desplazamiento del adaptador iSCSI a una ranura distinta:
En una instalación de Windows*, si traslada el adaptador iSCSI a una ranura PCI que no sea en la que se encontraba
cuando se instalaron los controladores y el iniciador de MS iSCSI Boot, se produce un error de sistema durante la
pantalla de bienvenida de Windows. Este problema desaparece si vuelve a colocar el adaptador en la ranura PCI
original. Recomendamos no cambiar de sitio el adaptador utilizado para la instalación de iSCSI Boot. Se trata de un
problema conocido del SO.
Si debe trasladar el adaptador a otra ranura, realice lo siguiente:
1. Inicie el sistema operativo y quite el adaptador antiguo
2. Instale un adaptador nuevo en otra ranura
3. Configure el nuevo adaptador para iSCSI Boot
4. Ejecute el inicio de iSCSI en el SO mediante el adaptador original
5. Defina el nuevo adaptador como iniciable con iSCSI en el SO
6. Reinicie
7. Traslade el adaptador antiguo a otra ranura
8. Repita los pasos 2 a 5 con el adaptador antiguo que acaba de trasladar
La desinstalación del controlador puede causar que aparezca una pantalla azul
Si el controlador del dispositivo que se utiliza para iSCSI Boot se desinstala a tras del Administrador de dispositivos,
Windows muestra una pantalla azul durante el inicio y es necesario volver a instalar el SO. Se trata de un problema
conocido de Windows.
No se eliminaron los adaptadores con una imagen de iSCSI del Administrador de dispositivos durante la desinstalación
Durante la desinstalación se elimina todo el software restante de Conexión de red Intel pero los controladores de los
adaptadores de iSCSI Boot que tienen una prioridad de inicio asignada como primaria o secundaria no se
desinstalan.
La descarga de I/OAT podría detenerse con Arranque iSCSI de Ethernet Intel® o con el iniciador de Microsoft instalado
Una solución transitoria para este problema consiste en cambiar el valor de registro siguiente a "0":
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\IOATDMA\Start
Solamente cambie el valor del registro si iSCSI Boot está habilitado y si desea la descarga de I/OAT. Aparecerá una
pantalla azul si este valor se cambia a "0" cuando iSCSI Boot no está habilitado. Debe cambiarse de nuevo a "3" si
iSCSI Boot está inhabilitado o aparece una pantalla azul durante el reinicio.
La configuración de una dirección de administración local (LAA) en un puerto habilitado para iSCSI Boot provocará un fallo del sistema en el
siguiente reinicio
No configure una dirección LAA en los puertos con iSCSI Boot habilitado.
La versión del Arranque iSCSI de Ethernet Intel® no coincide entre versiones visualizadas en DMIX y el texto que se desplaza durante el inicio
Si un dispositivo no se establece como primario pero se enumera en primer lugar, el BIOS utiliza la versión de ese
dispositivo de iSCSI Boot. Por lo tanto, puede que el usuario tenga que utilizar una versión anterior de Arranque iSCSI
de Ethernet Intel® y no la esperada. La solución consiste en que todos los dispositivos del sistema deben tener la
misma versión de iSCSI Boot. Para ello, el usuario debe ir a la ficha Opciones de inicio y actualizar la memoria flash
de los dispositivos a la versión más reciente.
Inicio de sesión iSCSI con IPv6 en los conjuntos EqualLogic de Dell EMC mediante tramas jumbo
Para establecer una sesión iSCSI utilizando IPv6 y tramas jumbo con conjuntos Dell EqualLogic, deben desactivarse
las descargas de suma de comprobación de TCP/UDP en el adaptador Intel iSCSI.
Problemas conocidos de iSCSI/DCB de Microsoft Windows
La creación automática de filtros de tráfico iSCSI para DCB solo es compatible con redes que utilicen direcciones IPv4
La función para la habilitación de puentes de centro de datos (DCB) emplea filtros de tráfico de calidad de servicio
(QOS) para etiquetar paquetes salientes con una prioridad. El agente iSCSI de Intel crea dinámicamente estos filtros
de tfico según se necesitan en las redes mediante el direccionamiento IPv4.
Inicio de sesión iSCSI con IPv6 en los conjuntos Dell EqualLogic mediante tramas jumbo
Para establecer una sesión iSCSI utilizando IPv6 y tramas jumbo con conjuntos Dell EqualLogic, deben desactivarse
las descargas de suma de comprobación de TCP/UDP en el adaptador Intel iSCSI.
Problemas conocidos de Linux
Unión de canales
La función de unn de canales de Linux presenta problemas básicos de compatibilidad con iSCSI Boot y no debe
utilizarse.
Podrían aparecer errores de autenticación del destino EqualLogic en dmesg al ejecutar Red Hat* Enterprise Linux 4
Estos mensajes de error no indican un bloqueo del inicio de una sesión ni del inicio y pueden ignorarse sin
problemas.
Incompatibilidad de LRO e iSCSI
Large Receive Offload (LRO) es incompatible con el tfico de destino o de iniciador de iSCSI. Puede producirse un
error irrecuperable cuando el tfico de iSCSI se recibe a través del controlador ixgbe con LRO habilitada. El
controlador debe crearse e instalarse con:
# make CFLAGS_EXTRA=-DIXGBE_NO_LRO install
Resolución de problemas
Problemas comunes y sus soluciones
Hay muchos problemas sencillos y fáciles de resolver relacionados con problemas de red. Siga los siguientes pasos
antes de continuar:
l Compruebe los últimos cambios en el hardware, el software o la red que pueden haber interrumpido las
comunicaciones.
l Compruebe el software de controlador.
l Aserese de utilizar la versión más reciente de los controladores indicados para su adaptador en el
sitio web de asistencia de Intel.
l Desactive (o descargue) y vuelva a activar (o cargar) el controlador o el adaptador.
l Intente identificar configuraciones problemáticas. Desactive las configuraciones avanzadas para ver si
el problema se resuelve.
l Vuelva a instalar los controladores.
l Compruebe el cable. Utilice los mejores cables para el caudal de datos indicado.
l Compruebe que el cable esté conectado correctamente en ambos puntos.
l Compruebe que la longitud del cable no exceda las especificaciones.
l En el caso de las conexiones de cobre, compruebe que tiene un cable de 4 pares y de Categoría 5
para 1000BASE-T o 100BASE-TX o uno de 4 pares y categoría 6 10GBASE-T.
l Realice una prueba de cable.
l Sustituya el cable.
l Compruebe el interlocutor de enlace (conmutador, hub, etc.).
l Aserese de que el interlocutor de enlace esté activo y pueda enviar y recibir tráfico.
l Aserese de que la configuración del adaptador y el interlocutor de enlace coincidan o estén
establecidas para la negociación automática.
l Aserese de que el puerto esté activado.
l Vuelva a conectarse a otro puerto disponible u otro interlocutor de enlace.
l Intente identificar problemas del adaptador.
l Vuelva a colocar el adaptador.
l Inserte el adaptador en otra ranura.
l Intente identificar dispositivos y configuraciones de hardware incompatibles o en conflicto.
l Sustituya el adaptador.
l Consulte el sitio web de asistencia de Intel para buscar los problemas documentados.
l Seleccione su adaptador en la lista de familias de adaptadores.
l Consulte la sección Preguntas más frecuentes.
l Consulte la Base de conocimientos.
l Compruebe su monitor de procesos y otros monitores del sistema.
l Compruebe que hay suficiente capacidad de procesador y memoria para realizar la actividad de red.
l Intente identificar actividades inusuales (o faltas de actividad).
l Utilice programas de pruebas de red para comprobar la conectividad básica.
l Compruebe la versión y la configuración de la BIOS.
l Utilice la BIOS s reciente indicada para su equipo.
l Aserese de que la configuración es apropiada para su equipo.
La siguiente tabla de solución de problemas parte de la base de que se han evaluado los problemas más comunes y
sus soluciones.
Problema Solución
Su equipo no puede encontrar el
adaptador
Aserese de que las ranuras de su adaptador son compatibles con el
tipo de adaptador utilizado:
l PCI Express v1.0 (o posteriores)
l PCI-X v2.0
l Las ranuras PCI son v2.2
Los diagsticos son correctos, pero falla
la conexión
Aserese de que el cable esté correctamente conectado, es del tipo
correcto y no excede las longitudes recomendadas.
Problema Solución
Ejecute la prueba de diagnóstico de remitente y destinatario.
Aserese de que los valores del modoplex y de la velocidad del
adaptador coincidan con los del conmutador.
Otro adaptador deja de funcionar una vez
se instala el adaptador de red Intel®
Aserese de que su BIOS PCI esté actualizado. Consulte la
configuración de PCI/PCI-X/PCI Express.
Verifique que no existan conflictos de interrupción ni problemas con las
interrupciones compartidas. Asegúrese de que el otro adaptador admita
las interrupciones compartidas. También, cerciórese de que el sistema
operativo es compatible con las interrupciones compartidas.
Descargue todos los controladores de dispositivos PCI, luego vuelva a
cargarlos de nuevo.
El adaptador no se conecta al
conmutador a la velocidad correcta. El
adaptador Gigabit se conecta a
100 Mbps, y el adaptador 10 Gigabit se
conecta a 1000 Mbps.
Esto es válido solo para las conexiones basadas en cobre.
Aserese de que el adaptador y el interlocutor de enlace están
configurados para la negociación automática.
Compruebe que está ejecutando la última revisión del sistema
operativo para su conmutador y que el conmutador cumple con el
estándar IEEE adecuado:
l IEEE 802.3ad (Gigabit por hilo de cobre)
l IEEE 802.3an (10 Gigabit por hilo de cobre)
El dispositivo no se conecta a la
velocidad esperada.
Si el modo maestro/esclavo Gigabit se fuerza a modo "maestro" tanto en
el adaptador Intel como en su interlocutor de enlace, la velocidad de
enlace alcanzada por el adaptador Intel puede ser inferior a lo
esperado.
El adaptador deja de funcionar sin motivo
aparente
Ejecute las pruebas de adaptador y de red descritas en "Prueba del
adaptador".
La luz indicadora del enlace está
apagada
Ejecute las pruebas de adaptador y de red descritas en "Prueba del
adaptador".
Aserese de que esté cargado el controlador adecuado (y que sea el
más reciente).
Aserese de que el interlocutor de enlace esté configurado para la
negociación automática (o que se fuerce para que coincida con el
adaptador)
Verifique que el conmutador cumpla con la especificación IEEE 802
3ad.
La luz indicadora del enlace está
encendida, pero la comunicación no se
establece correctamente
Aserese de que esté cargado el controlador adecuado (y que sea el
más reciente).
Tanto el adaptador como el interlocutor de enlace deben configurarse
para la detección automática o bien, deben configurarse en forma
manual con las mismas opciones de velocidad y modo dúplex.
NOTA: la luz indicadora delnculo del adaptador poda
encenderse incluso si la comunicación entre el adaptador y el
interlocutor denculo no se ha establecido correctamente.
Técnicamente, la luz indicadora del enlace representa la
presencia de una señal de que hay dispositivo portador, pero no
necesariamente la posibilidad de comunicarse correctamente
con un interlocutor de enlace. Se trata de un comportamiento
previsto y se ajusta a la especificación IEEE relativa al
funcionamiento del nivel físico.
Problema Solución
La luz RX o TX está apagada Es probable que la red esté inactiva; intente crear tfico a la vez que
observa las luces.
La utilidad de diagnóstico informa que el
adaptador "No está habilitado por el
BIOS"
BIOS PCI no está configurando correctamente el adaptador. Consulte la
configuración de PCI/PCI-X/PCI Express.
El equipo se bloquea cuando se cargan
los controladores
Intente cambiar los valores de interrupción del BIOS PCI. Consulte la
configuración de PCI/PCI-X/PCI Express.
Configuración de PCI/PCI-X/PCI Express Si el SO no reconoce el adaptador o no funciona, podría tener que
cambiar algunos ajustes del BIOS. Realice las siguientes acciones solo
si tiene problemas con el adaptador y está familiarizado con la
configuración del BIOS.
l Verifique que el ajuste "Plug-and-Play" sea compatible con el
sistema operativo que se está utilizando.
l Aserese de que la ranura esté activada.
l Instale el adaptador en una ranura maestra de bus.
l Configure las interrupciones para la activación de nivel, y no
para la activación de umbral.
l Reserve interrupciones o direcciones de memoria. De esta
manera se evita que varios buses o ranuras de bus utilicen las
mismas interrupciones. Compruebe el BIOS de las opciones de
IRQ de PCI/PCI-X/PCIe.
Mensaje de controlador: "Rx/Tx está
deshabilitado en este dispositivo porque
se detectó un tipo de módulo SFP+ no
compatible".
Ha instalado un módulo no compatible en el dispositivo. Consulte
Módulos SFP+ y QSFP+ compatibles para obtener una lista de los
módulos compatibles.
Varios adaptadores
Cuando configure un entorno con varios adaptadores, debe actualizar el software de todos los adaptadores de Intel
del sistema al s reciente.
Si el sistema tiene dificultades para detectar todos los adaptadores, considere lo siguiente:
l Si habilita Wake on LAN* (WoL) en más de dos adaptadores, esta función poda sobrecargar el sistema de
alimentación auxiliar del sistema, lo que podría ocasionar que no se pueda iniciar el sistema y otros problemas
impredecibles. Cuando se utilizan varios adaptadores de escritorio/administración, es recomendable instalar
un adaptador a la vez y que utilice la utilidad IBAUtil (ibautil.exe en \APPS\BOOTAGNT) para deshabilitar la
función WoL en los adaptadores que no requieren esta función. En los adaptadores de servidor, la
configuración WoL está desactivada de forma predeterminada.
l Los adaptadores que tienen Intel Boot Agent habilitado requerin una parte de la memoria de arranque
limitada por cada adaptador habilitado. Deshabilite el servicio en los adaptadores que no necesitan iniciar
PXE (Pre-Boot Execution Environment).
Modo de recuperación de firmware
Un dispositivo entra en el modo de recuperación de firmware si detecta un problema que requiere volver a programar
el firmware. Cuando un dispositivo se encuentra en el modo de recuperación de firmware, no transmite el tfico ni
permite ninguna configuración; solo puede intentar recuperar el firmware del dispositivo.
Productos afectados
Dispositivo Ethernet Nueva versión de NVM Herramientas y controladores
de software
Controlador Intel® Ethernet serie 700 Firmware de la familia de NIC Intel®
versión 18.8.0 y posteriores
Familia de NIC Intel® versión
18.8.0 y posteriores
Controlador Intel® Ethernet X550 Firmware de la familia de NIC Intel®
versión 18.8.0 y posteriores
Familia de NIC Intel® versión
18.8.0 y posteriores
Detección del modo de recuperacn
Durante la inicialización, un dispositivo puede entrar en el modo de recuperación si el firmware del dispositivo detecta
un problema con el dispositivo LAN y exige la reprogramación del NVM para restablecer el funcionamiento normal.
Después de realizar pruebas internas exhaustivas del NVM (normalmente menos de 10 minutos, pero en algunos
casos más), el NIC entra en el modo de recuperación.
Errores y mensajes del modo de recuperación de firmware
Cuando un dispositivo se encuentra en el modo de recuperación de firmware, los controladores, el software de
prearranque y las utilidades del dispositivo pueden registrar o mostrar mensajes como los siguientes:
l Firmware recovery mode detected (Modo de recuperación de firmware detectado). Limiting functionality
(Funcionalidad limitada). Refer to the Intel® Ethernet Adapters and Devices User Guide for details on firmware
recovery mode (Consulte la Guía del usuario de los adaptadores y dispositivos Intel® Ethernet para obtener
más información sobre el modo de recuperación de firmware).
l Firmware recovery mode detected (Modo de recuperación de firmware detectado). El hardware subyacente se
ha desactivado. Refer to the Intel® Ethernet Adapters and Devices User Guide for details on firmware recovery
mode (Consulte la Guía del usuario de los adaptadores y dispositivos Intel® Ethernet para obtener más
información sobre el modo de recuperación de firmware).
l Firmware recovery mode detected (Modo de recuperación de firmware detectado). Fallo de inicialización.
l Firmware recovery mode detected (Modo de recuperación de firmware detectado). Limiting functionality
(Funcionalidad limitada).
Resolucn de problemas del modo de recuperación de firmware
Si el dispositivo está en modo de recuperación de firmware, puede restaurarlo a los valores por defecto de fábrica
mediante el proceso de resolución de problemas del modo de recuperación de firmware que se describe en las
subsecciones siguientes.
Autocomprobación de NVM
El proceso comienza tras el encendido o el reinicio. En ese momento, el firmware realiza pruebas para determinar si
la imagen NVM del dispositivo ha sufrido aln tipo de daño.
Acciones:
l Si no se detectan daños en la imagen NVM, el dispositivo se inicializa y funciona con normalidad. No se
requiere ninguna otra acción.
l Si se detectan daños en la imagen NVM, el dispositivo no se inicializa. Continúe con los pasos de
recuperación adicionales que se indican en la sección Modo de recuperación.
Modo de recuperación
La imagen NVM del dispositivo parece estar dañada.
Acciones:
1. Espere 10 minutos hasta que finalice el proceso de autocomprobación del NVM. Si durante este periodo se
consigue el funcionamiento normal, el dispositivo se inicializará y funciona con normalidad. No se requiere
ninguna otra acción.
2. Si desps de 10 minutos no se consigue el funcionamiento normal:
a. Compruebe el registro de eventos del sistema en los sistemas operativos Windows o los registros del
kernel y mensajes del controlador en las distribuciones basadas en Linux y ESXi. El modo de
recuperación se confirma por la presencia de mensajes o entradas de registro como se indica en la
sección Errores y mensajes del modo de recuperación de firmware.
b. Reinicie el sistema y continúe con los pasos de recuperación adicionales que se indican a
continuación en Restauración de la imagen NVM.
NOTAS:
l En el modo de recuperación, en sistemas operativos Windows, al hacer clic en el adaptador del
administrador de dispositivos puede aparecer un cuadro de diálogo que indica que el modo de
recuperación de firmware está activo.
l Una vez descartado este cuadro de diálogo, no volve a aparecer (pero las entradas relevantes
permanecerán en los registros de eventos).
l Después de descartar el cuadro de diálogo, aunque el dispositivo parezca estar funcionando
con normalidad, en realidad está limitado a habilitar únicamente la recuperación de la imagen
NVM.
l Si se reinicia el sistema (en vez de encenderlo y apagarlo), es posible que el estado del controlador no
muestre el estado esperado de código 10/marca amarilla. Consulte los eventos incluidos en el registro
de eventos del sistema en los sistemas operativos Windows o los registros del kernel y mensajes del
controlador en las distribuciones basadas en Linux y ESXi, a fin de determinar con precisión el estado
del adaptador.
l Cuando el adaptador está en modo de recuperación, el LED de conexión no se enciende y el adaptador
no aparece en las siguientes ubicaciones:
l F2 Configuración del sistema > Configuración del dispositivo
l BIOS del sistema como NIC para arranque PXE en modo de arranque UEFI
l Controlador de ciclo de vida > Configuración de red
l Interfaz gráfica web de iDRAC > Inventario de firmware
Restauración de la imagen NVM
En este punto, el dispositivo está en modo de recuperación de firmware y su funcionalidad se limita únicamente a la
restauración de la imagen NVM.
Acciones:
1. Antes de iniciar la recuperación del dispositivo, se debe verificar la integridad del sistema operativo host, los
controladores del dispositivo y las utilidades de firmware y reinstalar estos elementos si es necesario. Para la
recuperación del dispositivo es necesario que el sistema operativo, los controladores del dispositivo y las
herramientas sean completamente funcionales. Consulte las instrucciones específicas de su sistema operativo
sobre cómo analizar y reparar archivos del sistema potencialmente dañados.
2. Si su dispositivo está en modo de recuperación de firmware, puede restaurarlo a los valores por defecto de
fábrica mediante el último paquete de actualización de Dell EMC para el firmware del adaptador Intel (FW-
DUP) o el paquete de actualización del firmware ESXi de la familia de NIC Intel. Descargue el último paquete
de actualización de Dell EMC para el firmware del adaptador Intel (FW-DUP) o el paquete de actualización del
firmware ESXi de la familia de NIC Intel del sitio web de asistencia de Dell y siga las instrucciones incluidas. El
paquete de actualización de Dell EMC para el firmware del adaptador Intel (FW-DUP) debe ejecutarse en un
sistema operativo para recuperar el dispositivo, no en Dell Lifecycle Controller o iDRAC.
3. Después de restaurar la imagen NVM, realice un ciclo de apagado y encendido del sistema. Encontrará los
detalles a continuación, en la sección Otras notas generales.
NOTAS:
l Si un dispositivo está en modo de recuperación cuando se ejecuta el paquete Dell DUP para el
inventario, la versión de la familia de firmware (FFV) mostrará "0.0.0". Comportamiento previsto.
l La ejecución de FW-DUP en modo de recuperación no actualiza la ROM opcional. Un ciclo de
encendido y apagado y la ejecución de FW-DUP por segunda vez corregin este problema.
l Después de ejecutar FW-DUP en modo de recuperación, la versión del firmware es incorrecta. La
actualización del firmware a través de Dell Lifecycle Controller o iDRAC resolve el problema.
l Los ajustes configurados por el usuario (es decir, la información de destino iSCSI, las direcciones MAC
alternativas o los puertos definidos por el usuario) no se restaurarán a los valores anteriores al uso del
modo de recuperación.
Otras notas generales
NOTAS:
l Para realizar un ciclo de encendido y apagado, lleve a cabo los pasos siguientes:
l Apague el sistema si está encendido.
l Desconecte todos los cables de alimentación del sistema.
l Deje los cables de alimentación desenchufados durante 15 segundos para que la fuente de
alimentación del sistema se descargue completamente.
l Conecte los cables de alimentación al sistema.
l Si NPAR estaba activado cuando se recupe el sistema, es posible que siga viendo particiones NIC en
el sistema operativo aunque el HII informe de que NPAR está desactivado. Para corregir esto, desactive
y vuelva a activar NPAR en HII de la siguiente manera:
l Durante el arranque del sistema, pulse F2 para acceder a la configuración del sistema,
seleccione Device Settings (Configuración del dispositivo) y seleccione el dispositivo que desee.
l Seleccione Device Level Configuration (Configuración de nivel de dispositivo) y, a continuación,
desactive NPAR en el menú Virtualization Mode (Modo de virtualización).
l Guarde los cambios y el sistema se reinicia.
l Después de reiniciar, pulse F2 para acceder a la configuración del sistema y active NPAR como
se ha descrito anteriormente.
Otros aspectos del rendimiento
Para conseguir la mayor velocidad, es necesario que muchos componentes funcionen con la máxima eficiencia. Entre
ellos se encuentran los siguientes:
l Calidad y longitud del cable: no sobrepase la longitud máxima recomendada para el tipo de cable. Los cables
más cortos suelen proporcionar mejores resultados. Compruebe si hay conectores dañados o que no estén
correctamente conectados. Compruebe si alguna sección del cableado está retorcida o dañada.
l Velocidad de bus y tráfico: la velocidad del bus de PCI se adapta a la de la tarjeta PCI s lenta instalada.
Compruebe si hay alguna tarjeta que esté ralentizando su sistema.
l Procesador y memoria: compruebe los programas de supervisión del rendimiento para determinar si el tfico
se ve afectado por la velocidad del procesador, la memoria disponible u otros procesos.
l Tamaño de tramas de transmisión: puede mejorar el rendimiento de la red si ajusta o maximiza el tamaño de
la trama de transmisión. Los sistemas operativos, conmutadores y adaptadores impondn distintos límites al
tamaño máximo de trama. Consulte la información sobre tramas jumbo de su sistema operativo.
l Sistema operativo: la implementación de las funciones de redes, como la descarga o los subprocesos con
múltiples procesadores, puede variar según la versión de su sistema operativo.
Prueba del adaptador
El software de diagnóstico de Intel permite probar el adaptador para ver si existe algún problema físico en el mismo,
en el cable o en la conexión de red.
Prueba desde Windows
Intel PROSet permite ejecutar tres tipos de pruebas de diagnóstico.
l Prueba de conexión: esta prueba verifica la conectividad con la red mediante el envío de ping al servidor
DHCP, al servidor WINS y a la puerta de enlace.
l Prueba de cable: estas pruebas proporcionan información acerca de las propiedades del cable.
NOTA: la prueba de cable no es compatible con todos los
adaptadores y no se puede ejecutar en cables de conexión directa
(DAC) ni en fibra. Esta prueba solo estará disponible en los
adaptadores que puedan soportarla.
l Prueba de hardware: determina si el adaptador está funcionando correctamente.
NOTA: las pruebas de hardware no arrojarán resultados satisfactorios si el adaptador está configurado
para iSCSI Boot.
Para obtener acceso a estas pruebas, seleccione el adaptador en el Administrador de dispositivos de Windows, haga
clic en la ficha Enlace y haga clic en Diagnóstico. Aparece una ventana de diagnóstico con fichas para cada tipo de
prueba. Haga clic en la ficha pertinente y ejecute la prueba.
Utilice el panel Diagstico en Intel® PROSet ACU.
La disponibilidad de estas pruebas depende del adaptador y el sistema operativo. Las pruebas se pueden desactivar
si:
l iSCSI Boot está habilitado en el puerto.
l El puerto se utiliza como puerto de capacidad de gestión.
l Las pruebas se ejecutan desde una máquina virtual.
Prueba desde Windows PowerShell*
Intel le ofrece dos cmdlets de PowerShell para probar su adaptador.
l Test-IntelNetDiagnostics ejecuta las pruebas especificadas en el dispositivo especificado. Si desea más
información, consulte la ayuda de Test-IntelNetDiagnostics en PowerShell.
l Test-IntelNetIdentifyAdapter hace parpadear el LED en el dispositivo especificado.
Diagsticos de Linux
El controlador utiliza la interfaz ethtool para la configuración y el diagstico del controlador, al igual que para mostrar
información estadística. Se requiere la versión 1.6 o posterior de ethtool para esta funcionalidad.
La revisión más reciente de ethtool se encuentra en: http://sourceforge.net/projects/gkernel.
NOTA: ethtool 1.6 solo admite un conjunto limitado de opciones de ethtool. La compatibilidad con un conjunto
más completo de funciones ethtool puede habilitarse obteniendo la última versión de la herramienta.
Registro de eventos de Windows*
Nombres de servicio de registro de eventos de Windows
Controlador Intel®
Ethernet
Nombres de archivo de controlador
NDIS
Nombre de servicio de registro de eventos de
Windows
I350 E1r*.sys e1rexpress
I354 E1s*.sys e1sexpress
X520 Ixn*.sys ixgbn
X540 Ixt*.sys ixgbt
X550 Ixs*.sys ixgbs
Serie 710 I40ea*.sys i40ea
Mensajes de adaptadores de red Inte
A continuación se ofrece una lista de los mensajes de eventos personalizados que aparecen en el registro de eventos
de Windows para los adaptadores Intel® Ethernet.
ID del
evento
Mensaje Importancia
1 El rol de Hyper-V se ha deshabilitado en el sistema. Todos los dispositivos Intel® Ethernet
configurados con un perfil de rendimiento de virtualización se cambiaron por un perfil de
rendimiento más adecuado.
Información
6 PROBLEM: Unable to allocate the map registers necessary for operation. (PROBLEMA: No
se pudieron asignar los registros de asignación necesarios para la operación).
ACTION: Reduce the number of transmit descriptors and restart. (ACCN: Reduzca el
Error
ID del
evento
Mensaje Importancia
mero de descriptores de transmisión y reinicie el sistema).
7 PROBLEM: Could not assign an interrupt for the network adapter. (PROBLEMA: No se pudo
asignar una interrupción para el adaptador de red).
ACTION: Try a different PCIe slot. (ACCIÓN: Colóquelo en otra ranura PCIe).
ACTION: Install the latest driver from (ACCIÓN: Instale el controlador más reciente desde)
http://www.intel.com/support/sp/go/network/adapter/home.htm.
Error
23 PROBLEM: The EEPROM on the network adapter may be corrupt. (PROBLEMA: La
EEPROM del adaptador de red puede estar dañada).
ACTION: Visit the support web site at (ACCIÓN: Visite el sitio web de asistencia en)
http://www.intel.com/support/sp/go/network/adapter/home.htm.
Error
24 PROBLEM: Unable to start the network adapter. (PROBLEMA: No se puede iniciar el
adaptador de red).
ACTION: Install the latest driver from (ACCIÓN: Instale el controlador más reciente desde)
http://www.intel.com/support/sp/go/network/adapter/home.htm.
Error
25 PROBLEM: The MAC address on the network adapter is invalid. (PROBLEMA: La dirección
MAC en el adaptador de red no es válida).
ACTION: Visit http://www.intel.com/support/sp/go/network/adapter/home.htm for assistance.
(ACCIÓN: Visite para obtener ayuda).
Error
27 Network link has been disconnected. (Se ha desconectado el enlace de red). Advertencia
30 PROBLEM: The network adapter is configured for auto-negotiation but the link partner is not.
(PROBLEMA: El adaptador de red está configurado para la negociación automática pero el
socio de enlace no lo está). This may result in a duplex mismatch. (Esto puede causar una
discrepancia de dúplex).
ACTION: Configure the link partner for auto-negotiation. (ACCN: Configure el socio de
enlace para la negociación automática).
Advertencia
31 Se ha establecido el enlace de red a 10 Gb/s en dúplex completo. Información
32 Se ha establecido el enlace de red a 1 Gb/s en dúplex completo. Información
33 Se ha establecido el enlace de red a 100 Mb/s enplex completo. Información
34 Se ha establecido el enlace de red a 100 Mb/s en semiplex. Información
35 Se ha establecido el enlace de red a 10 Mb/s enplex completo. Información
36 Se ha establecido el enlace de red a 10 Mb/s en semiplex. Información
37 PROBLEM: PCI-Express bandwidth available for this card is not sufficient for optimal
performance (PROBLEMA: El ancho de banda disponible de PCI-Express para esta tarjeta
no es suficiente para obtener un rendimiento óptimo).
ACTION: Move the adapter to a x8 PCI Express slot (ACCN: Mueva el adaptador a una
ranura PCI Express x8).
Advertencia
40 Intel Smart Speed has downgraded the link speed from the maximum advertised (Intel Smart
Speed ha reducido la velocidad del enlace desde el máximo anunciado).
Información
41 The network adapter driver has been stopped (El controlador del adaptador de red se ha
detenido).
Información
42 The network adapter driver has been started (El controlador del adaptador de red se ha
iniciado).
Información
43 PROBLEM: Could not allocate shared memory necessary for operation. (PROBLEMA: No se
pudo asignar la memoria compartida necesaria para la operación).
ACTION: Reduce the number of transmit and receive descriptors, then restart. (ACCN:
Reduzca elmero de descriptores de transmisión y recepción, y reinicie el sistema).
Error
ID del
evento
Mensaje Importancia
44 PROBLEM: Could not allocate memory necessary for operation. (PROBLEMA: No se pudo
asignar la memoria necesaria para la operación).
ACTION: Reduce the number of transmit and receive descriptors, then restart. (ACCN:
Reduzca elmero de descriptores de transmisión y recepción, y reinicie el sistema).
Error
45 PROBLEM: Could not allocate a resource pool necessary for operation. (PROBLEMA: No se
pudo asignar un fondo de recursos necesarios para la operación).
ACTION: Reduce the number of transmit and receive descriptors, then restart. (ACCN:
Reduzca elmero de descriptores de transmisión y recepción, y reinicie el sistema).
Error
46 PROBLEM: Could not initialize scatter-gather DMA resources necessary for operation.
(PROBLEMA: No se pudieron inicializar los recursos DMA de dispersión o recopilación
necesarios para la operación).
ACTION: Reduce the number of transmit descriptors and restart. (ACCN: Reduzca el
mero de descriptores de transmisión y reinicie el sistema).
Error
47 PROBLEM: Could not map the network adapter flash. (PROBLEMA: No se pudo asignar la
flash del adaptador de red).
ACTION: Install the latest driver from (ACCIÓN: Instale el controlador más reciente desde)
http://www.intel.com/support/sp/go/network/adapter/home.htm.
ACTION: Try another slot. (ACCN: Pruebe con otra ranura).
Error
48 PROBLEM: The fan on the network adapter has failed. (PROBLEMA: El ventilador del
adaptador de red ha fallado).
ACTION: Power off the machine and replace the network adapter. (ACCIÓN: Apague el
equipo y reemplace el adaptador de red).
Error
49 PROBLEM: The driver was unable to load due to an unsupported SFP+ module installed in
the adapter. (PROBLEMA: El controlador no se pudo cargar debido a un dulo SFP+
incompatible instalado en el adaptador).
ACTION: Replace the module. (ACCN: Reemplace el módulo).
ACTION: Install the latest driver from (ACCIÓN: Instale el controlador más reciente desde)
http://www.intel.com/support/sp/go/network/adapter/home.htm.
Error
50 PROBLEM: The network adapter has been stopped because it has overheated (PROBLEMA:
El adaptador de red se ha detenido porque se ha recalentado).
ACTION: Restart the computer. (ACCN: Reinicie el sistema). If the problem persists, power
off the computer and replace the network adapter (Si el problema contia, apague el
equipo y reemplace el adaptador de red).
Error
51 PROBLEM: The network adapter link speed was downshifted because it overheated
(PROBLEMA: La velocidad del enlace del adaptador de red se ha reducido porque se ha
recalentado).
Error
52 PROBLEM: The network adapter has been stopped because it has overheated (PROBLEMA:
El adaptador de red se ha detenido porque se ha recalentado).
Error
53 Jumbo Frames cannot be configured when MACSec is enabled (Las tramas jumbo no se
pueden configurar cuando MACSec está habilitado).
Información
54 PROBLEM: A malicious VF driver has been detected (PROBLEMA: Se ha detectado un
controlador VF malintencionado).
Advertencia
56 El controlador de red se ha detenido porque se ha eliminado el adaptador de red. Información
58 Se ha establecido el enlace de red a 25 Gb/s en dúplex completo. Información
60 Se ha establecido el enlace de red a 50 Gb/s en dúplex completo. Información
61 Se ha establecido el enlace de red a 20 Gb/s en dúplex completo. Información
64 El ID de etrack de este adaptador de red es: Información
ID del
evento
Mensaje Importancia
65 PROBLEM: PCI-Express bandwidth available for this card is not sufficient for optimal
performance (PROBLEMA: El ancho de banda disponible de PCI-Express para esta tarjeta
no es suficiente para obtener un rendimiento óptimo).
ACCIÓN: Mueva el adaptador a una ranura PCI Express x4 de generación 3.
Advertencia
66 PROBLEM: PCI-Express bandwidth available for this card is not sufficient for optimal
performance (PROBLEMA: El ancho de banda disponible de PCI-Express para esta tarjeta
no es suficiente para obtener un rendimiento óptimo).
ACCIÓN: Mueva el adaptador a una ranura PCI Express x8 de generación 3.
Advertencia
67 La partición ha detectado una velocidad de enlace que es inferior a 10 Gb/s. Advertencia
68 El controlador del dispositivo se ha detenido porque la imagen NVM es más reciente que el
controlador. Debe instalar la versión s reciente del controlador de red.
Error
69 El controlador del dispositivo ha detectado una versión más reciente de lo esperado de la
imagen NVM. Instale la versión s reciente del controlador de red.
Advertencia
70 El controlador del dispositivo ha detectado una versión más antigua de lo esperado de la
imagen NVM. Actualice la imagen NVM.
Información
71 El controlador no se pudo cargar debido a que se detectó un tipo de módulo incompatible. Error
72 PROBLEM: The driver failed to load because the adapter was not provided MSI-X interrupt
resources. (PROBLEMA: El controlador no se ha cargado porque no se han proporcionado
recursos de interrupción MSI-X al adaptador).
ACTION: Move the adapter to another slot or platform. (ACCIÓN: Mueva el adaptador a otra
ranura o plataforma).
Error
73 Los ajustes de usuario "Velocidad y dúplex" y "Control de flujo" no se pueden modificar, ya
que este dispositivo funciona en modo de conexión virtual.
Información
Mensajes de Intel DCB
A continuación se ofrece una lista de los mensajes personalizados de eventos de los controladores intermedios que
aparecen en el registro de eventos de Windows:
ID del
evento
Mensaje Importancia
256 Cadena de depuración de servicio Información
257 La característica de Selección mejorada de la transmisión se ha habilitado en un
dispositivo.
Información
258 La característica de Selección mejorada de la transmisión se ha deshabilitado en un
dispositivo.
Información
259 La característica de Control de flujo de prioridad se ha habilitado en un dispositivo. Información
260 La característica de Control de flujo de prioridad se ha deshabilitado en un dispositivo. Información
261 La característica de Selección mejorada de la transmisión en un dispositivo se ha
modificado a operativa.
Información
262 La característica de Control de flujo de prioridad en un dispositivo se ha modificado a
operativa.
Información
263 La característica de Aplicación en un dispositivo se ha modificado a operativa. Información
264 La característica de Aplicación se ha deshabilitado en un dispositivo. Información
265 La característica de Aplicación se ha habilitado en un dispositivo. Información
ID del
evento
Mensaje Importancia
269 La característica de Enlace lógico en un dispositivo se ha modificado a operativa. Información
270 La característica de Enlace lógico se ha deshabilitado en un dispositivo. Información
271 La característica de Enlace lógico se ha habilitado en un dispositivo. Información
768 El servicio ha fallado durante el inicio. Error
770 El gestor de servicio ha fallado durante la instalación. Error
771 El servicio no ha podido asignar memoria suficiente. Error
772 El servicio no puede utilizar el adaptador de red. Error
773 El servicio ha rechazado la configuración: el total no es válido para grupos de ancho de
banda de transmisión.
Error
774 El servicio ha rechazado la configuración: el total no es válido para grupos de ancho de
banda de recepción.
Error
775 El servicio ha rechazado la configuración: el índice de grupos de ancho de banda de
transmisión no es válido.
Error
776 El servicio ha rechazado la configuración: el índice de grupos de ancho de banda de
recepción no es válido.
Error
777 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda
distinto de cero en la clase de tfico de transmisión.
Error
778 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda
distinto de cero en la clase de tfico de recepción.
Error
779 El servicio ha rechazado la configuración: ancho de banda cero en la clase de tfico de
transmisión.
Error
780 El servicio ha rechazado la configuración: ancho de banda cero en la clase de tfico de
recepción.
Error
781 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda
distinto de cero en el grupo de ancho de banda de transmisión.
Error
782 El servicio ha rechazado la configuración: algoritmo estricto de enlace y ancho de banda
distinto de cero en el grupo de ancho de banda de recepción.
Error
783 El servicio ha rechazado la configuración: el total no es válido para el grupo de ancho de
banda de transmisión.
Error
784 El servicio ha rechazado la configuración: el total no es válido para el grupo de ancho de
banda de recepción.
Error
785 El servicio no puede configurar los servicios WMI necesarios. Error
786 El servicio ha tenido un error de máquina de estado de transmisión. Error
787 El servicio ha tenido un error de máquina de estado de recepción. Error
789 La conexión del servicio al controlador de protocolo LLDP ha fallado. Error
790 La característica de Selección mejorada de la transmisión en un dispositivo se ha
modificado a no operativa.
Error
791 La característica de Control de flujo de prioridad en un dispositivo se ha modificado a no
operativa.
Error
792 La característica de Aplicación en un dispositivo se ha modificado a no operativa. Error
ID del
evento
Mensaje Importancia
793 El servicio ha rechazado la configuración: se han detectado varios grupos de ancho de
banda de algoritmo estricto de enlace.
Error
794 La característica de Enlace lógico en un dispositivo se ha modificado a no operativa. Error
795 Error al abrir el dispositivo. Error
796 La configuración de DCB del adaptador de red no es válida. Error
797 La configuración de DCB del adaptador de red no es válida: AppSelector. Error
798 Se ha detectado un componente del controlador del adaptador de red en estado no óptimo.
Instale la versión 3.5 o superior del controlador del adaptador de red.
Error
Mensajes de DCB de iSCSI Intel
A continuación se ofrece una lista de los mensajes personalizados de eventos de los controladores intermedios que
aparecen en el registro de eventos de Windows:
ID del
evento
Mensaje Importancia
4352 Cadena de depuración de servicio: Información
4353 El Agente DCB de iSCSI ha agregado un filtro QOS para el tfico de iSCSI. Información
4354 El Agente DCB de iSCSI ha eliminado un filtro QOS para el tfico de iSCSI. Información
4355 El Agente DCB de iSCSI ha modificado un filtro QOS para el tráfico de iSCSI. Información
4356 El servicio QOS ha notificado al Agente DCB de iSCSI que se ha cerrado un adaptador
DCB de iSCSI.
Información
4357 El Control de flujo de prioridad y la Prioridad de usuario de aplicación se han configurado
para el tfico DCB de iSCSI.
Información
8704 Algunos miembros del equipo configurado para el tfico DCB de iSCSI tienen una
configuración DCB que no es válida.
Advertencia
13056 El servicio ha fallado durante el inicio. Error
13057 El gestor de servicio ha fallado durante la instalación. Error
13058 Error devuelto por la interfaz de control de tráfico. Error
13059 El servicio no ha podido asignar memoria suficiente. Error
13060 El Agente DCB de iSCSI no puede agregar el filtro QOS para el tfico de iSCSI. Error
13061 El servicio QOS ha notificado al Agente DCB de iSCSI que se han eliminado todos los
filtros QOS para un adaptador DCB de iSCSI.
Error
13062 La Prioridad de usuario de aplicación o el Control de flujo de prioridad están mal
configurados para el tfico DCB de iSCSI.
Error
13063 El TLV de Control de flujo de prioridad no está operativo para el tfico DCB de iSCSI. Error
13064 El TLV de Aplicación no está operativo para el tfico DCB de iSCSI. Error
13065 Se ha detectado un sistema operativo incompatible. Error
13066 Ningún miembro del equipo configurado para el tfico DCB de iSCSI tiene una
configuración DCB válida.
Error
Luces indicadoras
Los adaptadores de red para servidor y equipo de sobremesa de Intel incluyen luces indicadoras en la placa posterior
del adaptador que sirven para indicar la actividad y el estado de la tarjeta del adaptador. Las siguientes tablas definen
el significado de los posibles estados de las luces indicadoras para cada tarjeta del adaptador.
Adaptadores QSFP+ de doble puerto
Etiqueta Indicacn Significado
ACT/LNK
Verde Conectado a 40 Gb
Activación/desactivación del parpadeo Transmisión o recepción activa de datos
Desactivado No hay enlace.
El adaptador de Ethernet de red convergente Intel® XL710-Q2 tiene las siguientes luces indicadoras:
Adaptadores SPF/SFP+ de doble puerto
Etiqueta Indicacn Significado
GRN 25G
Verde
Conectado a la máxima velocidad de
puerto
Amarillo
Conectado a una velocidad de puerto
inferior a la xima
ACTIVIDAD
Activación/desactivación del
parpadeo
Transmisión o recepción activa de datos
Desactivado No hay enlace
El adaptador Intel® Ethernet 25G 2P XXV710 cuenta con las siguientes luces indicadoras:
Etiqueta Indicacn Significado
LNK
Verde Funcionando a la xima velocidad de puerto
Amarillo
Conectado a una velocidad de puerto inferior a la
máxima
ACT
Verde
parpadeando
Actividad de datos
Desactivado No hay actividad
El adaptador Intel® Ethernet 10G 2P X710 OCP cuenta con las siguientes luces indicadoras:
Etiqueta Indicación Significado
LNK
Verde Conectado a 10 Gb
Amarillo Conectado a 1 Gb
ACT
Activación/desactivación del parpadeo Transmisión o recepción activa de datos
Desactivado No hay enlace
El adaptador de red convergente Intel® Ethernet X710 tiene las siguientes luces indicadoras:
Etiqueta Indicacn Significado
GRN 10G
(A o B):
verde
Activado Conectado a la LAN
Desactivado No conectado a la LAN
ACT/LNK
(A o B):
verde
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos
Desactivado No hay enlace
El adaptador Intel® 10G 2P X520 tiene las siguientes luces indicadoras:
Adaptadores de cobre de doble puerto
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gbps.
Amarillo
Conectado a una velocidad inferior
a 1 Gbps.
Desactivado No hay enlace.
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos.
Desactivado No hay enlace.
El adaptador Intel® Ethernet 10G 2P X710-T2L-t OCP cuenta con las siguientes luces indicadoras:
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gbps.
Amarillo
Conectado a una velocidad inferior a
10 Gbps.
Desactivado No hay enlace.
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos.
Desactivado No hay enlace.
El adaptador Intel® Ethernet 10G 2P X710-T2L-t cuenta con las siguientes luces indicadoras:
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gbps.
Amarillo Conectado a 1 Gb o 100 Mbps.
Desactivado No hay enlace.
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos.
Desactivado No hay enlace.
El adaptador Intel® Ethernet 10G 2P X550-t tiene las siguientes luces indicadoras:
Etiqueta Indicación Significado
Enlace
Verde Conectado a 10 Gb.
Amarillo Conectado a 1 Gb.
Desactivado No hay enlace.
Actividad
Activación/desactivación del
parpadeo
Transmisión o recepción activa de
datos.
Desactivado No hay enlace.
El adaptador Intel® Ethernet 10G 2P X540-t tiene las siguientes luces indicadoras:
Etiqueta Indicación Significado
ACT/LNK
Verde
encendido
El adaptador está conectado con un interlocutor de enlace
válido.
Verde
parpadeando
Actividad de datos
Desactivado No hay enlace.
10/100/1000
Desactivado 10 Mbps
Verde 100 Mbps
Amarillo 1000 Mbps
Naranja
parpadeando
Identidad. Use el botón "Identify Adapter" (Identificar
adaptador) en Intel PROSet para controlar el parpadeo. Si
desea más información consulte la ayuda de Intel
PROSet.
El adaptador Intel® Gigabit 2P I350-t tiene las luces indicadoras siguientes:
Adaptadores de cobre de cuatro puertos
Etiqueta
Indicacn Significado
ACT
Verde encendido
El adaptador está conectado con un interlocutor de enlace
válido.
Verde
parpadeando
Actividad de datos
Desactivado No hay enlace.
LNK
Verde 10 Gbps
Amarillo 1 Gbps
Desactivado 100 Mbps
El adaptador de red convergente Intel® Ethernet X710 y el adaptador de red convergente Intel® Ethernet X710-T
tienen las siguientes luces indicadoras:
Etiqueta Indicación Significado
ACT/LNK
Verde
encendido
El adaptador está conectado con un interlocutor de enlace
válido.
Verde
parpadeando
Actividad de datos
Desactivado No hay enlace.
10/100/1000
Verde 100 Mbps
Amarillo 1000 Mbps
Naranja
parpadeando
Identidad. Use el botón "Identify Adapter" (Identificar
adaptador) en Intel® PROSet para controlar el parpadeo. Si
desea más información consulte la ayuda de Intel PROSet.
Desactivado 10 Mbps
El adaptador Intel® Gigabit 4P I350-t tiene las luces indicadoras siguientes:
rNDC (tarjetas dependientes de red de bastidor)
Etiqueta Indicacn Significado
LNK (verde/amarillo) Verde encendido Funcionando a máxima velocidad de puerto.
Desactivado No hay enlace.
ACT (verde) Verde parpadeando Actividad de datos.
Desactivado No hay actividad.
El Intel® Ethernet 40G 2P XL710 QSFP+ rNDC tiene las siguientes luces indicadoras:
Etiqueta Indicación Significado
LNK
(verde/amarillo)
Verde encendido Funcionando a máxima velocidad de
puerto.
Desactivado No hay enlace.
ACT (verde) Verde
parpadeando
Actividad de datos.
Desactivado No hay actividad.
El adaptador Intel® Ethernet 10G 2P X710 OCP tiene las siguientes luces indicadoras:
Etiqueta Indicación Significado
LNK
(verde/amarillo)
Verde encendido Funcionando a máxima velocidad de
puerto.
Amarillo
encendido
Funcionando a mínima velocidad de
puerto.
Desactivado No hay enlace.
ACT (verde) Verde
parpadeando
Actividad de datos.
Desactivado No hay actividad.
Intel® Ethernet 1G 4P I350-t OCP, Intel® Ethernet 10G 4P X550/I350 rNDC, Intel® Gigabit 4P X550/I350 rNDC,
Intel® Ethernet 10G 4P X550 rNDC, Intel® Ethernet 10G 4P X540/I350 rNDC, InteGigabit 4P X540/I350 rNDC e
Intel® Gigabit 4P I350-t rNDC tienen las siguientes luces indicadoras:
Etiqueta Indicacn Significado
LNK
(verde/amarillo)
Verde encendido Funcionando a máxima velocidad de
puerto.
Amarillo
encendido
Funcionando a mínima velocidad de
puerto.
Desactivado No hay enlace.
ACT (verde) Verde
parpadeando
Actividad de datos.
Desactivado No hay actividad.
El Intel® Ethernet 10G 4P X520/I350 rNDC, Intel® Gigabit 4P X520/I350 rNDC, Intel® Ethernet Gigabit 4P x710/I350
rNDC e Intel® 10G 4P X710/I350 rNDC tienen las siguientes luces indicadoras:
Transición de i40evf a iavf
Visión general
Intel ha creado el controlador Intel® Adaptive Virtual Function (iavf) con el fin de proporcionar una interfaz de función
virtual (VF) coherente y que resista el paso del tiempo para los controladores Intel® Ethernet. Anteriormente, al
actualizar el hardware de red, era necesario sustituir los controladores de cada máquina virtual por nuevos
controladores capaces de acceder al nuevo dispositivo de VF proporcionado por el nuevo hardware. El controlador
iavf permite actualizar el hardware de red sin necesidad de actualizar el controlador de VF en las máquinas virtuales
existentes.
La compatibilidad con funciones virtuales adaptables se añadió en un principio a los controladores i40evf existentes
para sistemas operativos Microsoft* Windows Server* y Linux*. Intel camb el nombre del controlador i40evf a iavf con
el fin de aclarar que el controlador iavf será el controlador de VF en futuros dispositivos más allá de los dispositivos
compatibles con el controlador i40e. La versión 18.8.0 fue la última versión que contenía i40evf. La versión 19.0.0 es
la primera versión que contiene iavf.
Dispositivos compatibles
El controlador iavf es compatible con dispositivos basados en el controlador Intel® Ethernet serie 700.
Sistemas operativos admitidos
l Linux*
l Microsoft* Windows Server* 2016
l Microsoft* Windows Server* 2019 (x64 Edition)
Transición de i40evf a iavf en sistemas operativos Linux
NOTAS:
l No utilice el dispositivo con i40evf como interfaz principal para acceder a la máquina virtual. Debe
contar con otra forma de interactuar con la máquina virtual de forma que no pierda la conexión cuando
deshabilite el controlador i40evf.
l Si está utilizando un kernel/distribución que no contiene iavf y actualiza el kernel/distribución,
asegúrese de que iavf sigue cargado desps de la actualización.
El controlador iavf está disponible en los siguientes kernels/distribuciones:
l RHEL 7.6 y posteriores
l RHEL 8.0 y posteriores
l SLE-15-SP1 y posteriores
Actualizacn del kernel
Si solamente utiliza los controladores en el kernel o la distribución, no tend que hacer nada hasta que actualice al
kernel o distribución que contengan el controlador iavf. Llegados a este punto, debe actualizar cualquier secuencia
de comandos que llame al controlador por nombre.
Si realiza la actualización desde kernel.org, obtendrá automáticamente el controlador iavf.
Mediante el RPM de Linux
1. Copie el archivo tar del controlador iavf en su imagen de quina virtual.
2. Descargue el anterior controlador.
rmmod i40evf
3. Compile el módulo del controlador.
rpmbuild -tb /path/to/the/driver/file/iavf-[versión].tar.gz
4. Instale el controlador.
a. RHEL:
rpm -i /root/rpmbuild/RPMS/x86_64/iavf-[versión]-1.x86_64.rpm
b. SLES:
rpm -i /usr/src/packages/RPMS/x86_64/iavf-[versión]-1.x86_64.rpm
5. Cargue el nuevo módulo del controlador.
modprobe iavf
Instalación mediante el tarball de Linux
1. Copie el archivo tar del controlador iavf en su imagen de quina virtual.
2. Descomprima el archivo tar.
tar zxf iavf-<x.x.x>.tar.gz
donde
<x.x.x> es el número de versión del archivo tar del controlador.
3. Cambie al directorio de src en el archivo del controlador que ha descomprimido.
4. Compile el módulo del controlador.
make
make install
5. Aserese de eliminar los controladores i40evf antiguos del kernel antes de cargar el nuevo módulo.
rmmod i40evf
6. Cargue el nuevo módulo del controlador.
modprobe iavf
NOTAS: El comando "make install":
l Crea el /etc/modprobe.d/iavf-blacklist-i40evf.conf que contiene blacklist
i40evf.
l ade la línea "alias i40evf iavf" a la configuración de modprobe.
Preguntas acerca de Linux
Solamente utilizo controladores de bandeja de entrada de kernel/distribución. ¿Tengo entonces que hacer algo?
No tendrá que hacer nada hasta que actualice el sistema operativo de su máquina virtual. Si actualiza el
kernel/distribución de su máquina virtual a uno que contenga iavf, deberá actualizar todas las secuencias de
comandos que llamen al controlador.
¿Qué ocurre si deseo mantener i40evf y actualizar solamente el controlador de PF a la última versn?
Esta configuración no es compatible. Realice la transición de su controlador a iavf cuando actualice su controlador de
PF. La versión 18.8.0 fue la última versión compatible con el controlador i40evf.
¿Qué ocurre si deseo mantener la anterior PF y realizar únicamente la transición de laquina virtual a iavf?
En este caso, no debe haber ningún tipo de problema. Si lo hubiera, la actualización del controlador de PF debería
resolver cualquier problema existente.
Tengo secuencias de comandos que hacen referencia a los controladores de la VF por nombre, ¿es necesario
que cambie las secuencias de comandos?
Sí. Debe cambiar el nombre del controlador en sus secuencias de comandos, en lugar de utilizar un alias.
Si decido no llevar a cabo la transición a los nuevos controladores iavf, ¿durante cuánto tiempo proporcionará
Intel soluciones para los anteriores controladores i40evf?
Intel ha cambiado el nombre del controlador i40evf a iavf. Las futuras actualizaciones y soluciones se publican en el
controlador iavf.
¿Es necesario que desinstale el controlador i40evf?
No es algo absolutamente necesario, pero recomendamos desinstalar el controlador i40evf.
¿Existe alguna posibilidad de conflicto o situaciones en las que ambos controladores puedan coexistir en el
mismo sistema?
Ambos controladores pueden estar instalados en el sistema. La instalación del controlador iavf indica al sistema que
debe utilizarse el controlador iavf en lugar del controlador i40evf. Así pues, cuando el sistema realiza un sondeo en
busca de nuevos dispositivos y detecta un dispositivo compatible con controladores i40evf e iavf, se indica al sistema
que siempre utilice el controlador iavf.
Transición de i40evf a iavf en sistemas operativos Microsoft
Windows
NOTAS:
l No utilice el dispositivo con i40evf como interfaz principal para acceder a la máquina virtual. Debe
contar con otra forma de interactuar con la máquina virtual de forma que no pierda la conexión cuando
deshabilite el controlador i40evf.
1. Copie el paquete de instalación de iavf en su imagen de máquina virtual.
2. Utilice la opción Agregar o quitar programas para eliminar el controlador i40evf.
3. Ejecute el paquete de instalación de iavf para instalar el controlador iavf.
Si el controlador i40evf no se muestra en Agregar o quitar programas, utilice el Administrador de dispositivos para
eliminarlo de todos los dispositivos NIC virtuales:
1. Abra el Administrador de dispositivos.
2. En Adaptadores de red, seleccione el dispositivo NIC virtual.
3. Haga clic con el botón derecho del ratón y seleccione Desinstalar.
4. En la ventana emergente, seleccione la opción Eliminar el software de controlador de este dispositivo.
5. Haga clic en Aceptar.
Preguntas acerca de Windows
¿Qué ocurre si deseo mantener i40evf y actualizar solamente el controlador de PF a la última versn?
Esta configuración no es compatible. Realice la transición de su controlador a iavf cuando actualice su controlador de
PF. La versión 18.8.0 fue la última versión compatible con el controlador i40evf.
¿Qué ocurre si deseo mantener la anterior PF y realizar únicamente la transición de laquina virtual a iavf?
En este caso, no debe haber ningún tipo de problema. Si lo hubiera, la actualización del controlador de PF debería
resolver cualquier problema existente.
¿Se sustituyen las entradas de registro de i40evf existentes o se crea un nuevo registro con los nombres del
controlador iavf para el mismo puerto?
Se sustituyen las entradas de registro de i40evf.
¿Qué ocurre con los archivos del controlador i40evf en system32? ¿Se eliminan?
No todos. Algunos se conservan.
Problemas conocidos
NOTA: los Problemas conocidos de iSCSI se encuentran en sus propias secciones de este manual.
El cmdlet get-netadaptervmq de PowerShell muestra una cantidad inferior al número
esperado de colas de recepción
Tras la instalación del paquete de actualización de Dell (DUP), el cmdlet get-netadaptervmq de PowerShell indica que
hay 31 colas por puerto. Comportamiento previsto. El DUP cambia la agrupación predeterminada de colas de parejas
a grupos de cuatro. En entornos anteriores a la instalación del DUP, las colas se emparejaban en grupos de dos. Tras
la instalación del DUP, las colas se unen en grupos de cuatro. Esto reduce elmero de colas mostradas por el
cmdlet get-netadaptervmq.
Las utilidades de actualización de NVM se cierran con errores en el kernel de Linux
4.16 o superior
En el kernel de Linux 4.16 o superior, si actualiza los controladores ixgbe, igb o i40e y, a continuación, ejecuta
cualquiera de las utilidades de actualización de NVM (NVMUpdate, NVMCheck, QCU o BootUtil), la utilidad puede
cerrarse con un error que indica que el adaptador seleccionado no se puede actualizar debido a una configuración
estricta de memoria MMIO en el kernel. Para solucionarlo, defina el parámetro del kernel iomem como "relaxed" (es
decir, iomem=relaxed) y reinicie el sistema antes de volver a ejecutar la herramienta. En el kernel 4.16 o superior, el
pametro iomem se define como "strict" de forma predeterminada, lo que impide que las utilidades de actualización
de NVM accedan a la MMIO del dispositivo.
El cambio a una versión anterior de firmware (a v18.0.x o anterior) falla en dis-
positivos basados en X550
En dispositivos basados en X550, el cambio a una versión anterior de firmware a la versión 18.0.x o anterior falla, y
puede ocasionar problemas de incompatibilidad entre las versiones de NVM y ROM de opción. Para solucionar este
problema, actualice a la versión más reciente del firmware.
Se ha producido un error al actualizar un módulo en el adaptador Intel® Ethernet
10G 2P X550-t mediante FW 17.5.0
Si utiliza FW DUP (paquete de actualización Dell EMC) v17.5.0 para cambiar a una versión anterior de firmware en un
adaptador Intel® Ethernet 10G 2P X550-t, el DUP puede indicar: "Se ha producido un error al actualizar un módulo".
Ignore este mensaje de error. Se ha cambiado a una versión anterior de FW correctamente.
Error durante la POST: "Rx/Tx is disabled on this device because the module does
not meet thermal requirements" (Rx/Tx está deshabilitado en este dispositivo porque
el módulo no cumple con los requisitos térmicos)
Este error se produce debido a la instalación de un dulo en un dispositivo basado en X710 que no cumple con los
requisitos térmicos para ese dispositivo. Para solucionar este problema, instale un módulo que cumpla los requisitos
térmicos del dispositivo. Consulte la sección "Dispositivos SFP+ y QSFP+" en este documento.
Error durante la POST: "Rx/Tx is disabled on this device because an unsupported
SFP+ module type was detected" (Rx/Tx está deshabilitado en este dispositivo por-
que se detectó un tipo de módulo SFP+ no compatible).
Este error se produce debido a la instalación de un dulo no compatible en un dispositivo basado en X710/XL710.
No pod enviar ni recibir tráfico en este dispositivo. Para solucionar este problema, instale un dulo compatible.
Consulte la sección "Dispositivos SFP+ y QSFP+" en este documento.
Faltan los puertos de la función virtual en VMWare ESX
Si habilita NPar y SR-IOV en el mismo dispositivo, elmero de funciones virtuales habilitadas y mostradas en lspci
puede ser 8 o menos. ESX limita elmero de funciones virtuales a 8 por dispositivo. Además, debido a las
limitaciones de ESXi, el número de funciones virtuales creado puede ser inferior a la cantidad solicitada. Si desea s
detalles, consulte la documentación de ESXi.
http://pubs.vmware.com/
Errores de marca amarilla de digo 10 en una máquina virtual en el administrador
de dispositivos de Windows
En un sistema que ejecute Microsoft Windows Server 2016, dentro de una máquina virtual que ejecuta Microsoft
Windows Server 2016 o Windows Server 2012 R2, las conexiones Intel Ethernet pueden tener un código 10 de marca
amarilla en el administrador de dispositivos de Windows. La instalación de una actualización acumulativa que
contenga Microsoft KB3192366 y KB3176936 resolverá el problema.
Reducción de la productividad después del reemplazo en funcionamiento
Si un adaptador Intel Gigabit está bajo una tensión extrema y se realiza el intercambio en funcionamiento, la
productividad puede descender de manera significativa. Esto puede deberse a la configuración de propiedades de
PCI realizada por el software de conexión en funcionamiento. Si ocurre esto, se puede restaurar la productividad si se
reinicia el sistema.
Utilización de la CPU mayor de lo esperado
Establecer RSS Queues en un valor mayor que 4 solo es recomendable en el caso de servidores grandes con varios
procesadores. Los valores mayores que 4 puede aumentar la utilización de la CPU a niveles inaceptables y tener
otros impactos negativos en el rendimiento del sistema.
Módulo SFP o SFP+ compatible no reconocido por el sistema
Si intenta instalar un dulo no compatible, el puerto ya no podrá instalar ningún módulo posteriormente,
independientemente de si el módulo es compatible o no. El puerto mostrará una marca amarilla en el Administrador
de dispositivos de Windows y se adirá la ID de evento 49 (módulo no compatible) al registro del sistema cuando se
produzca este problema. Para solucionar el problema, el sistema debe estar completamente apagado.
Problemas conocidos de Windows
El controlador listo para usar no se desinstala a tras de la función de Aplicaciones y caractesticas
de la consola web
No puede utilizar el menú Aplicaciones y características de la consola web de Microsoft* Windows* 2016 para
desinstalar controladores listos para usar. En su lugar, utilice la selección de Programas y características en el Panel
de control de Windows.
Falta un puerto en el controlador de ciclo de vida: configuración de red
Si un puerto está configurado para arranque iSCSI y se ha conectado correctamente a su destino de arranque, no se
puede modificar la configuración del puerto en el controlador de ciclo de vida.
Procedimiento para instalar y actualizar controladores y utilidades
Intel no recomienda instalar ni actualizar controladores y el software de Intel® PROSet a tras de una conexión de
red. En su lugar, instale o actualice controladores y utilidades de cada sistema.
La configuración de Propiedades avanzadas cambia mientras circula tráfico
En la ficha Advanced Properties de Intel® PROSet, no deben modificarse los pametros en condiciones de mucha
carga en la red. En caso contrario, puede ser necesario reiniciar para que los cambios entren en vigor.
En un entorno Microsoft Hyper-V, las máquinas virtuales vinculadas a particiones NPAR no se comu-
nican unas con otras
En un entorno Microsoft Hyper-V, si habilita NPAR en un puerto y las máquinas virtuales están vinculadas a las
particiones de ese puerto, es posible que no puedan comunicarse entre ellas. La causa es que el conmutador virtual
dentro de Hyper-V envía los paquetes al puerto físico, que los envía al conmutador conectado al puerto. Es posible
que el conmutador físico no esté configurado para un relé reflectivo (también denominado modo "horquilla"), por lo
que poda no enviar los paquetes de vuelta en la misma conexión desde la que se recibieron. La conexión del puerto
al conmutador apto del agregador de puertos Ethernet virtuales (VEPA) solucionará este problema.
Los controladores Intel deben instalarse mediante el paquete de actualizaciones de Dell EMC antes de
configurar las funciones de Microsoft Hyper-V
Antes de configurar las funciones de Microsoft* Hyper-V, el paquete de actualizaciones de Dell EMC debe haber
instalado los controladores NIC de Intel®. Si la función Microsoft* Hyper-V está configurada en una partición NIC no
admitida en un dispositivo X710 de Intel® antes de usar el paquete de actualizaciones de Dell EMC para instalar los
controladores NIC de Intel®, puede que la instalación del controlador no se complete. Para realizar la recuperación,
debe desinstalar Microsoft* Hyper-V, desinstalar "Conexiones de red Intel®" de "Programas y características" y usar el
paquete de actualizaciones de Dell EMC para instalar los controladores NIC de Intel®.
La cadena de marca se muestra incompleta en el registro de eventos
Algunas cadenas de marca son demasiado largas y no pueden mostrarse completas en el registro de eventos. En
estos casos, la cadena de marca se truncará y el bus/dispositivo/función de PCI del puerto se agrega a la cadena.
Por ejemplo: Adaptador de red convergente Intel® Eth... [129,0,1].
ID de evento de error de aplicación 789 y 790 en el registro de eventos
Si DCB (Puentes de centro de datos) está habilitado, y el puerto habilitado pierde el enlace, pueden registrarse los
tres eventos siguientes en el registro de eventos:
l ID de evento 789: la característica de selección mejorada de la transmisión en un dispositivo se ha modificado
a no operativa
l ID de evento 790: la característica de control de flujo de prioridad en un dispositivo se ha modificado a no
operativa
Este es el comportamiento esperado cuando un puerto habilitado para DCB pierde un enlace. DCB empeza a
funcionar de nuevo en cuanto se restablezca el enlace. Un puerto perderá el enlace si se desconecta el cable, se
actualiza el controlador o el paquete de software, si cae el interlocutor del enlace, o por otros motivos.
Aviso "Malicious script detected" (Se ha detectado un archivo script malicioso) de Norton AntiVirus
durante la desinstalación de PROSet
El proceso de desinstalación de Intel PROSet utiliza un archivo script de Visual Basic como parte del proceso. Norton
AntiVirus y otros productos de software de exploración en busca de virus pueden marcarlo por error como un archivo
script malicioso o peligroso. Si deja que se ejecute el archivo script, el proceso de desinstalación finaliza
normalmente.
Pérdida inesperada de la conectividad
Si elimina la selección del cuadro "Allow the computer to turn off this device to save power" (Permitir que el equipo
desactive este dispositivo para ahorrar energía) en la ficha Power Management y, a continuación, pone el sistema en
modo de reposo, es posible que pierda la conectividad cuando salga del modo de reposo. Debe deshabilitar y
habilitar la NIC para resolver el problema. Al instalar Intel® PROSet para el Administrador de dispositivos de Windows
tambn resolve el problema.
Configuración avanzada del perfil de equilibrio de carga de RSS
Configurar el ajuste avanzado del "perfil de equilibrio de carga de RSS" como "ClosestProcessor" puede reducir
significativamente el uso de CPU. Sin embargo, en algunas configuraciones del sistema (como un sistema con más
puertos Ethernet que núcleos de procesador), el ajuste "ClosestProcessor" puede causar errores de transmisión y
recepción. Cambiar el ajuste a "NUMAScalingStatic" resolverá el problema.
La hoja de propiedades del Administrador de dispositivos de Windows tarda más de lo esperado en
abrirse
La hoja de propiedades del Administrador de dispositivos de Windows puede tardar 60 segundos o más en abrirse. El
controlador debe descubrir todos los dispositivos Intel de Ethernet e inicializarlos antes de que pueda abrir la hoja de
propiedades. Estos datos se almacenan en caché, por lo que las aperturas posteriores de la hoja de propiedades
serán generalmente más rápidas.
Problemas conocidos de Linux
HeaderDataSplit no es compatible con adaptadores basados en 82599.
Configuración del controlador en diferentes distribuciones
La configuración de un controlador de red para que se cargue adecuadamente cuando se inicia el sistema
(0=tradicional, 1=MSI, 2=MSI-X) depende de la distribución. Por lo general, el proceso de configuración incluye la
adición de la línea de alias en /etc/modules.conf o /etc/modprobe.conf, así como la edición de otras secuencias de
comandos de inicio del sistema o archivos de configuración. Varias distribuciones Linux habituales se suministran con
las herramientas necesarias para hacer estos cambios automáticamente. Para familiarizarse con la forma adecuada
de configurar un dispositivo de red en el sistema, consulte la documentación de la distribución.
Activación de WOL en Linux mediante Ethtool y BootUtil
De forma predeterminada, WOL está desactivado. En un entorno de Linux, WOL se debe activar mediante Ethtool y,
en ocasiones, también es necesario BootUtil. Solo el puerto A (puerto 0) se puede activar mediante Ethtool sin utilizar
BootUtil. Para activar WOL mediante Ethtool en otros puertos, debe activarlo primero mediante BootUtil.
Problemas conocidos de la Administración de energía
Los dispositivos con controladores Intel® Ethernet serie X710 no son compatibles con el modo de mul-
tidifusión Wake-On-LAN
Los dispositivos basados en el controlador Intel® Ethernet X710 no son compatibles con Wake-On-Lan (WOL) en el
modo de multidifusión.
El sistema no se reactiva aunque Wake on Link es activado
Puede que el sistema no se reactive según lo esperado si cambia la configuración de Wake on Link a Forzado y
desactiva las opciones "Activar en Magic Packet" y "Reactivar en coincidencia de patrones" en las instalaciones solo
de controlador. Para que la activación Wake on Link se realice correctamente, compruebe que la opción "Permitir que
este dispositivo active el equipo" esté marcada en la ficha Administración de energía. Puede que tambn necesite
activar "Activar en Magic Packet" o "Reactivación por coincidencia de patrones".
Los paquetes dirigidos no reactivan el sistema
En algunos sistemas, es posible los adaptadores de servidor de cuatro puertos no se reactiven cuando están
configurados para activarse en paquetes dirigidos. Si experimenta problemas relacionados con la activación en
paquetes dirigidos, configure el adaptador para utilizar Magic Packets*.
Las opciones de Administración de energía no están disponibles o no aparecen
La configuración de la ficha Administración de energía en la hoja de propiedades del adaptador podría no estar
disponible o, directamente, no aparecer. Esto ocurre si solo instaló los controladores básicos, s adelante instaló
Intel® PROSet para el administrador de dispositivos de Windows y, a continuación, desinstaló Intel PROSet. Debe
volver a instalar Intel PROSet para resolver el problema.
El sistema se reactiva desde una red VLAN eliminada
Si el sistema entra en modo de espera y se envía un paquete dirigido a la dirección IP de la red VLAN eliminada, el
sistema se reactiva. Esto se produce porque un paquete dirigido omite el filtrado VLAN.
Los adaptadores Intel ignoran las señales de reactivación consecutivas durante la transición al modo
de espera
En ocasiones, al poner el sistema en el modo de espera, es posible que llegue un paquete de reactivación antes de
que el sistema complete su transición a este modo. Cuando esto sucede, el sistema ignora las señales de reactivación
consecutivas y permanece en modo de espera hasta que se enciende manualmente usando el ratón, el teclado o el
botón de encendido.
Otros problemas conocidos del adaptador de red Intel 10GbE
El inventario H/W del sistema (iDRAC) indica que la función de negociación auto-
mática del NIC incorporado está deshabilitada, pero en aln otro lugar la velocidad
de enlace y la negociación automática dúplex están habilitadas
Si hay conectado un módulo óptico al Intel® Ethernet 10G X520 LOM en un PowerEdge-C6320, el inventario H/W del
sistema (iDRAC) indicará que la negociación automática está deshabilitada. Sin embargo, el Administrador de
dispositivos de Windows y HII indican que la velocidad de enlace y la negociación automática dúplex están
habilitadas. Esto es debido a que el controlador contiene un algoritmo que permite que el LOM se enlace con
interlocutores SFP a 10 Gb/s o 1 Gb/s. Esto se comunica al Administrador de dispositivos de Windows y HII, pero no es
una auténtica negociación automática. iDRAC lee el firmware del dispositivo, que no conoce el algoritmo y, por lo
tanto, informa de que la negociación automática está deshabilitada.
La asignación de banda ancha ETS no coincide con la configuración
Cuando las tramas jumbo se establecen en 9K con un adaptador 10GbE, la división del tfico ETS de 90 %/10 % en
realidad no se alcanza en un puerto en particular, a pesar de la configuración que se realiza en el conmutador DCB.
Cuando ETS se establece en una división 90 %/10 %, es más probable una división real observada del 70 %/30 %.
Pérdida de enlace en dispositivos 10GbE con tramas Jumbo habilitadas
No debe rebajar los valores de Receive_Buffers o Transmit_Buffers por debajo de 256 si las tramas Jumbo están
habilitadas en un dispositivo Intel® 10GbE. Si lo hace, causa lardida del enlace.
Tramas de pausa de PFC continuas enviadas desde dispositivos basados en Intel®
Ethernet X520
Si tiene un dispositivo basado en Intel® Ethernet X520 conectado a un puerto del conmutador y modifica la
configuración de ancho de banda de DCB en el puerto del conmutador, el dispositivo Intel® Ethernet X520 puede
enviar tramas de pausa perpetuamente, por lo que causa una tormenta y falla al transferir datos hacia y desde los
destinos de almacenamiento que estaba utilizando. Para resolver este problema, deshabilite los puertos X520, vuelva
a habilitarlos y, a continuación, vuelva a conectarse a los volúmenes de destino iSCSI. Para evitar el problema, si es
necesario cambiar la configuración de ancho de banda de DCB, realice una de las siguientes acciones:
l Apague el servidor que contiene el dispositivo Intel® Ethernet X520 antes de modificar la configuración de
ancho de banda de DCB.
l Deshabilite los puertos del conmutador conectado al dispositivo basado en Intel X520.
l No tenga tráfico ejecutándose en el dispositivo basado en Intel X520.
Intel® Ethernet 10G 2P/4P X710-k bNDC no tiene un enlace y no aparece en el Admi-
nistrador de dispositivos de Windows
Si se instala un Intel® Ethernet 10G 2P X710-k bNDC o un Intel® Ethernet 10G 4P X710-k bNDC en una hoja de
servidor Dell EMC PowerEdge M630/M830 y esa hoja se instala en un chasis M1000e, puede que el bNDC no tenga
un enlace y poda mostrar una marca amarilla o no aparecer en el Administrador de dispositivos de Windows. Esto se
limita a la versión 1.0 de M1000e Midplane.
Intel® Ethernet 10G X520 LOM se enlaza a 10 Gb/s si se selecciona 1,0 Gb/s con
plex completo
Cuando se conecta con un cable de conexión directa, Intel® Ethernet 10G X520 LOM se conecta siempre a 10 Gb/s.
Intel X540-t con Dell Force10 no establecerá el enlace a 100 Mbps en dúplex com-
pleto si se establece manualmente en ambos extremos
En el caso de un adaptador basado en X540-t unido a un componente Force10, para ejecutarse a 100 Mbps, las
propiedades de negociación automática de AMBOS componentes deben estar definidas como activas.
Al intentar identificar el adaptador, el LED de actividad parpadea y el LED de enlace
permanece encendido
Si utiliza la función de identificación de adaptador con los siguientes adaptadores, el LED de actividad parpadea en
lugar del LED de enlace. El LED de enlace puede mostrar una luz verde fija para puertos 10G, incluso si no está
presente un enlace de red.
l Todos los dispositivos Intel® Ethernet X520 10GbE
l Todos los dispositivos Intel® Ethernet X540 10GbE
l Todos los dispositivos Intel® Ethernet X550 10GbE
l Algunos dispositivos Intel® Gigabit I350 LOM
Problemas conocidos del controlador de red Intel
®
serie 710
Algunos dispositivos basados en Intel® X710 aportan una identificación de dispositivo secundario 0x0000 y pueden
mostrar una cadena de marca genérica. El puerto 0 aporta la identificación del sub-fabricante indicado y muestra la
cadena de marca correcta.
Los dispositivos basados en Intel X710 pueden mantener un enlace en cualquier puerto o en todos, siempre que se
garantice la alimentación del dispositivo, independientemente del estado de energía del dispositivo o sistema.
Errores IntelDCB inesperados en el registro de eventos de la aplicación de Windows
Es posible que, una vez que haya actualizado sus controladores X710, aparezcan varios errores IntelDCB en el
registro de eventos de la aplicación de Windows. Estos errores no son reales, por lo que puede ignorarlos.
Rendimiento inferior al esperado en dispositivos basados en X710/XL710
Si tiene un dispositivo basado en X710 o XL710 instalado en un sistema de cuatro zócalos de CPU. La recepción y la
transmisión de tfico pueden ser mucho s lentas de lo esperado. Establecer la tasa de interrupción en Alta puede
mitigar el problema.
Wake on LAN está disponible erróneamente en iDRAC/racadm
El adaptador de red convergente Intel® Ethernet X710-2 solo es compatible con WoL en el puerto 1. Si NPAR está
activado, WoL solo se admite en la primera partición del puerto 1. Si ve el estado de WoL con iDRAC/racadm, puede
que WoL aparezca erróneamente como disponible en otros puertos y particiones.
Problemas conocidos del adaptador Intel® Gigabit 4P I350-t
Reducción de la velocidad
Al conectarse a un conmutador Gigabit mediante un cable CAT 5 defectuoso con un par roto, el adaptador no reduce
la velocidad de 1 GB a 100 Mbps. Para que el adaptador reduzca la velocidad, debe identificar dos pares rotos en el
cable.
El sistema no arranca
Es posible que los recursos de E/S del sistema se agoten y el sistema no arranque si instala más de cuatro
adaptadores de servidor de cuatro puertos. Mover los adaptadores a otras ranuras o volver a equilibrar los recursos
en el BIOS del sistema puede resolver el problema. Este problema afecta a los siguientes adaptadores:
l Adaptador Intel® Gigabit 4P I350-t
Declaraciones de conformidad normativa
Productos FCC de clase A
Productos Ethernet 40 Gigabit
l Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
l Adaptador de Ethernet de red convergente Intel® XL710-Q2
Productos Ethernet 25 Gigabit
l Intel® Ethernet 25G 2P XXV710 Mezz
l Adaptador Intel® Ethernet 25G 2P XXV710
Productos Ethernet 10 Gigabit
l Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
l Adaptador Intel® Ethernet 10G 2P X540-t
l Adaptador Intel® Ethernet 10G 2P X550-t
l Intel® Ethernet 10G 4P X550 rNDC
l Intel® Ethernet 10G 4P X550/I350 rNDC
l Intel® Ethernet 10G 4P X540/I350 rNDC
l Intel® Ethernet 10G 4P X520/I350 rNDC
l Intel® Ethernet 10G 2P X520-k bNDC
l Intel® Ethernet 10G 4P X710-k bNDC
l Intel® Ethernet 10G 2P X710-k bNDC
l Intel® Ethernet 10G X710-k bNDC
l Adaptador de Ethernet de red convergente Intel® X710
l Adaptador de Ethernet de red convergente Intel® X710-T
l Intel® Ethernet 10G 4P X710/l350 rNDC
l Intel® Ethernet 10G 4P X710 SFP+ rNDC
l Intel® Ethernet 10G X710 rNDC
l Intel® Ethernet Server Adapter X710-DA2 para OCP para servidores
l Intel® Ethernet 10G 2P X710 OCP
l Intel® Ethernet 10G 4P X710 OCP
l Intel® Ethernet 10G 2P X710-T2L-t OCP
Productos Ethernet Gigabit
l Intel® Ethernet 1G 4P I350-t OCP
l Intel® Gigabit 4P X550/I350 rNDC
l Intel® Gigabit 4P I350-t rNDC
l Intel® Gigabit 4P X540/I350 rNDC
l Intel® Gigabit 4P X520/I350 rNDC
l Intel® Gigabit 4P I350-t Mezz
l Intel® Gigabit 4P X710/l350 rNDC
l Intel® Gigabit 4P I350 bNDC
Productos FCC de clase B
Productos Ethernet 10 Gigabit
l Adaptador Intel® Ethernet 10G 2P X710-T2L-t
l Adaptador Intel® Ethernet 10G 2P X520
l Intel® Ethernet 10G X520 LOM
Productos Ethernet Gigabit
l Adaptador Intel® Gigabit 2P I350-t
l Adaptador Intel® Gigabit 4P I350-t
Cumplimiento de seguridad
Los siguientes estándares de seguridad se aplican a todos los productos indicados anteriormente:
l UL 60950-1, segunda edición, 2011-12-19 (Equipos de tecnología de la información - Seguridad - Parte 1:
Requisitos generales)
l UL 62368-1, segunda edición (Equipos de tecnología de la información - Requisitos de seguridad)
l CSA C22.2 No. 60950-1-07, segunda edición, 2011-12 (Equipos de tecnología de la información - Seguridad -
Parte 1: Requisitos generales)
l CAN/CSA C22.2 Diferencias de grupos europeos y Diferencias nacionales según 62368-1-14 - Equipos de
audio/vídeo, información y tecnologías de la comunicación - Parte 1: requisitos de seguridad
l EN 60950-1:2006/A11:2009/A1:2010/A12:2011 (Unión Europea)
l IEC 60950-1:2005 (segunda edición); Am 1:2009 (Internacional)
l Directiva LVD de la UE 2006/95/CE
Cumplimiento con EMC
Podrían aplicarse los siguientes estándares.
Productos de clase A
l FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l CAN ICES-3(A)/NMB-3(A) - Emisiones de radiación y conducción (Cana)
l CISPR 22 - Emisiones de radiación y conducción (Internacional)
l EN55022: 2010 - Emisiones de radiación y conducción (Unión Europea)
l EN55024: 2010 +A1:2001+A2:2003 – Inmunidad (Unión Europea)
l EN55032: 2015 (Clase A) Requisitos de emisiones de radiación y conducción (Unión Europea)
l Directiva CEM 2004/108/CE (Unn Europea)
l VCCI (Clase A) - Emisiones de radiación y conducción (Japón)
l CNS13438 - Emisiones de radiación y conducción (Tain)
l AS/NZS CISPR 22:2009 + A1:2010 (Clase A) y CISPR 32:2015 para requisitos de emisiones de radiación y
conducción (Australia/Nueva Zelanda)
l NRRA Núm. 2012-13 (2012.06.28), NRRA Núm. Aviso 2012-14 (2012.06.28) (Corea)
Productos de clase B
l FCC Sección 15 (Clase B) - Emisiones de radiación y conducción (EE. UU.)
l CAN ICES-3(B)/NMB-3(B) - Emisiones de radiación y conducción (Cana)
l CISPR 22 - Emisiones de radiación y conducción (Internacional)
l EN55022: 2010 - Emisiones de radiación y conducción (Unión Europea)
l EN55024: 2010 - Inmunidad (Unión Europea)
l EN55032: 2015 (Clase B) Requisitos de emisiones de radiación y conducción (Unión Europea)
l Directiva CEM 2004/108/CE (Unn Europea)
l VCCI (Clase B) - Emisiones de radiación y conducción (Japón) (excepto dispositivos ópticos)
l CNS13438 (Clase B) 2006 - Emisiones de radiación y conducción (Taiwán) (excepto dispositivos ópticos)
l AS/NZS CISPR 22:2009 + A1:2010 (Clase B) y CISPR 32:2015 para requisitos de emisiones de radiación y
conducción (Australia/Nueva Zelanda)
l KN22; KN24 - Emisiones e inmunidad de Corea
l NRRA Núm. 2012-13 (2012.06.28), NRRA Núm. Aviso 2012-14 (2012.06.28) (Corea)
Cumplimiento con las normativas sobre sustancias peligrosas
Podrían aplicarse los siguientes estándares:
l Directiva REACH de la UE
l Directiva WEEE de la UE
l Directiva RoHS de la UE
l Directiva RoHS de China
l BSMI CNS15663: directiva RoHS de Tain
Marcas de cumplimiento normativo
En los casos en los que sea necesario, estos productos se suministrarán con las siguientes marcas de certificación:
l Marca de reconocimiento de UL para EE. UU. y Canadá
l Marca CE
l Logotipo de RAEE de la UE
l Marcas de FCC
l Marcas de VCCI
l Marca C-Tick de Australia
l Marca MSIP de Corea
l Marca BSMI de Taiwán
l Marca "EFUP" de la República Popular China
Información de usuario sobre FCC clase A
Los productos de clase A indicados anteriormente cumplen la sección 15 del Reglamento de la FCC. El
funcionamiento está sujeto a las dos condiciones siguientes:
1. Este dispositivo no puede causar interferencias perjudiciales.
2. Este dispositivo debe aceptar las interferencias que se reciban, incluidas las interferencias que puedan causar
un funcionamiento no deseado.
NOTA: este equipo se ha probado y se ha verificado que cumple los límites para dispositivos digitales de
clase A, tal como se define en la sección 15 de las Normas FCC. Estos límites están concebidos para
proporcionar una protección razonable contra interferencias perjudiciales cuando el equipo funcione en un
entorno comercial. Este equipo genera, utiliza y puede emitir energía de radiofrecuencia y, si no se instala y
se utiliza de acuerdo con las instrucciones, puede producir interferencias perjudiciales para las
comunicaciones de radio. Es probable que el funcionamiento de este equipo en un área residencial cause
interferencias perjudiciales, en cuyo caso el usuario estará obligado a corregir la interferencia a su propio
cargo.
ADVERTENCIA: si el dispositivo se cambia o se modifica sin el permiso de Intel, quizá se anule la autoridad
del usuario para operar el equipo.
Normas de Cana (Ministerio de Industria de Canadá)
CAN ICES-3(A)/NMB-3(A)
Declaración VCCI de clase A
Declaración BSMI de clase A
Aviso KCC de clase A (solo para la República de Corea)
Aviso BSMI de clase A (Taiwán)
Información de usuario sobre FCC clase B
Este equipo se ha probado y se ha verificado que cumple los límites para dispositivos digitales de clase B, tal como se
define en la sección 15 de las Normas FCC. Estos límites han sido diseñados para proteger razonablemente de
interferencias perjudiciales en instalaciones residenciales. Este equipo genera, utiliza y puede emitir energía de
radiofrecuencia y, si no se instala y se utiliza de acuerdo con las instrucciones, puede producir interferencias
perjudiciales para las comunicaciones de radio. No obstante, no hay garantía de que no se produzcan interferencias
en instalaciones determinadas.
Si este equipo llegase a ocasionar interferencias perjudiciales en la recepción de radio o televisión, lo cual se puede
determinar al apagar y encender el equipo, se insta al usuario a que intente corregir las interferencias a tras de una
o más de las medidas siguientes:
l Cambiar la orientación o la ubicación de la antena receptora.
l Aumentar la distancia entre el equipo y el receptor.
l Conectar el equipo a una toma de corriente distinta de la que utiliza el receptor.
l Consultar el problema al vendedor o un técnico de radio/TV con experiencia.
ADVERTENCIA: si el dispositivo se cambia o se modifica sin el permiso de Intel, quizá se anule la autoridad
del usuario para operar el equipo.
NOTA: este dispositivo cumple la Parte 15 del Reglamento de la FCC. Su funcionamiento está sujeto a las dos
condiciones siguientes: (1) este dispositivo no debe causar interferencias perjudiciales, y (2) este dispositivo
debe aceptar cualquier interferencia recibida, incluidas aquellas que puedan provocar un funcionamiento no
deseado.
Avisos de compatibilidad electromagtica
Declaración de conformidad con la normativa de la FCC
Los siguientes productos se han comprobado y cumplen los estándares de la FCC para uso dostico o en oficinas:
PRO/1000 PT, PRO/1000 GT, Gigabit PT, Gigabit ET, I210-T1, I340-T2/T4 e I350-T2/T4.
Normas de Canadá (Ministerio de Industria de Canadá)
CAN ICES-3 (B)/NMB-3 (B)
Declaración normativa VCCI de clase B (Japón)
Aviso KCC de clase B (solo para la República de Corea)
Logotipo de RAEE de la UE
Declaración del fabricante (Comunidad Europea)
Declaración del fabricante
Intel Corporation declara que el equipo descrito en este documento cumple con los requisitos de las directivas del
Consejo Europeo que se indican a continuación:
l Directiva de bajo consumo 2006/95/CE
l Directiva de EMC 2004/108/CE
l Directiva de RoHS 2011/65/UE
Estos productos siguen las disposiciones de la Directiva Europea 1999/5/CE.
Dette produkt er i overensstemmelse med det europæiske direktiv 1999/5/EC.
Dit product is in navolging van de bepalingen van Europees Directief 1999/5/EC.
Tämä tuote noudattaa EU-direktiivin 1999/5/EC määyksiä.
Ce produit est conforme aux exigences de la Directive Euroenne 1999/5/EC.
Dieses Produkt entspricht den Bestimmungen der Europäischen Richtlinie 1999/5/EC.
Þessi vara stenst reglugerð Evrópska Efnahags Bandalagsins númer 1999/5/EC.
Questo prodotto è conforme alla Direttiva Europea 1999/5/EC.
Dette produktet er i henhold til bestemmelsene i det europeiske direktivet 1999/5/EC.
Este produto cumpre com as normas da Diretiva Européia 1999/5/EC.
Este producto cumple con las normas de la Directiva Europea 1999/5/CE.
Denna produkt har tillverkats i enlighet med EG-direktiv 1999/5/EC.
Esta declaración se basa en el cumplimiento de las siguientes normativas en los productos de clase A indicados
anteriormente:
EN 55022:2010 (CISPR 22 Clase A) Control de emisiones de RF.
EN 55024:2010 (CISPR 24) Inmunidad a las perturbaciones electromagnéticas.
EN 60950-1:2006/A11:2009A1:2010/A12:2011 Seguridad de los equipos de tecnología de la información - Parte 1:
Requisitos generales.
EN 50581:2012 - Información técnica para la evaluación de productos eléctricos y electrónicos respecto a la
restricción de sustancias peligrosas.
Esta declaración se basa en el cumplimiento de las siguientes normativas en los productos de clase B indicados
anteriormente:
EN 55022:2010 (CISPR 22 Clase B) Control de emisiones de RF.
EN 55024:2010 (CISPR 24) Inmunidad a las perturbaciones electromagnéticas.
EN 60950-1:2006/A11:2009/A1:2010/A12:2011 Seguridad de los equipos de tecnología de la información - Parte 1:
Requisitos generales.
EN 50581:2012 - Información técnica para la evaluación de productos eléctricos y electrónicos respecto a la
restricción de sustancias peligrosas.
ADVERTENCIA: en un entorno dostico, los productos de clase A pueden causar interferencias de
frecuencias de radio, en cuyo caso el usuario estará obligado a tomar las medidas oportunas.
Persona responsable
Intel Corporation, Mailstop JF3-446
5200 N.E. Elam Young Parkway
Hillsboro, OR 97124-6497 (EE. UU.)
Teléfono: 1-800-628-8686
Declaración RoHS de China
Productos láser de clase 1
Los adaptadores de servidor indicados más arriba pueden incluir dispositivos láser para aplicaciones de
comunicación. Estos dispositivos cumplen con los requisitos de clase 1 de productos láser y son seguros para el uso
para el que se han diseñado. En funcionamiento normal, el resultado de estos dispositivos láser no sobrepasa el
límite de exposición de los ojos y no puede provocar ninn daño.
Para conseguir un funcionamiento seguro en caso de circunstancias anormales, aserese de tener la cubierta del
conector láser que se suministra en el lugar adecuado o de tener un cable de fibra óptico compatible conectado
cuando el dispositivo esté conectado al suministro de energía.
El dispositivoser solo debe ser reparado por el fabricante responsable. De no ser así, no debe efectuarse ninn
ajuste, reparación o mantenimiento.
PRECAUCIÓN: el uso de controles o ajustes o la realización de procedimientos ajenos a los que se
especifican en esta documentación podrían resultar en exposiciones peligrosas a radiación.
Estos dispositivosser de la clase 1:
Cumplen con FDA/CDRH por CFR21, subcapítulo J.
Cumple con IEC 60825-1:2007
Fin de vida útil y reciclado de productos
Los sistemas y requisitos de retiro por final de vida útil del producto y los de reciclado varían de un país a otro.
Solicite a un distribuidor de este producto información sobre estos temas.
Asistencia al cliente
Sitios web e Internet
http://support.dell.com/
Técnicos de asistencia al cliente
Si los procedimientos de resolución de problemas de este documento no solucionan el problema, póngase en
contacto con Dell Inc. para solicitar asistencia técnica (consulte la sección "Obtención de ayuda" en la documentación
del sistema).
Antes de llamar...
Debe estar delante de su equipo, con el software en ejecución y la documentación del producto a la mano.
Es posible que el técnico le pregunte lo siguiente:
l Su dirección y número de teléfono
l El nombre y elmero de modelo del producto sobre el que está llamando
l El número de serie y la etiqueta de servicio del producto
l Los nombres y los números de versión del software que está usando para trabajar con el producto
l El nombre y mero de versión del sistema operativo que está utilizando
l El tipo de sistema (fabricante y número de modelo)
l Las tarjetas de expansión o adicionales del sistema
l La cantidad de memoria de su sistema
Especificaciones del adaptador
Especificaciones de los adaptadores de red Intel®
40 Gigabit
Característica Adaptador de Ethernet de red convergente Intel® XL710-Q2
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
QSFP+
Cables
Cable biaxial de conexión directa (DAC) 40GBase-SR4 (7 m x.)
Requisitos de alimentacn
6.5 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
5.21 x 2.71 pulgadas
13.3 x 6.9 cm
Temperatura de funcionamiento
32 - 131 °F
(0 - 55 °C)
MTBF
159 años
Velocidades disponibles
40 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
IEEE 802.3ba
SFF-8436
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de tarjetas dependientes de red (NDC)
Intel® 40GbE
Característica Intel® Ethernet 40G 2P XL710 QSFP+ rNDC
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
QSFP+
Cables
Cable biaxial de conexión directa (DAC) 40GBase-SR4 (7 m x.)
Requisitos de alimentacn
6.2 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
3,66 x 6,081 pulg.
9.3 x 15.5 cm
Temperatura de funcionamiento
32 - 140 °F
(0 - 60 °C)
MTBF
112 años
Velocidades disponibles
40 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
IEEE 802.3ba
SFF-8436
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de los adaptadores de red Intel® 25 Gigabit
Característica Adaptador Intel® Ethernet 25G 2P XXV710
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
SFP28
Cables
Cable biaxial de conexión directa (DAC) 25GBase-CR (3 m x.)
Requisitos de alimentacn
6.5 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
2,70 x 2,02 pulgadas
6,86 x 5,12 cm
Temperatura de funcionamiento
32 - 131 °F
(0 - 55 °C)
MTBF
239 años
Velocidades disponibles
25 Gbps/10 Gbps/1 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Conformidad con estándares
IEEE 802.3-2015
SFF-8431
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL/CSA 60950-1-07 Segunda edición
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 2010 - (Inmunidad) (Unión Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS CISPR - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
KN32 - Emisiones de radiación y conducción (Corea)
l
KN35 - (Inmunidad) (Corea)
l
RoHS
Especificaciones de la tarjeta Intel® 25 Gigabit Mezzanine
Característica InteEthernet 25G 2P XXV710 Mezz
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
SFP28
Cables
Cable biaxial de conexión directa (DAC) 25GBase-CR (3 m x.)
Requisitos de alimentacn
9,78 W a +12 V
Dimensiones
(sin incluir el soporte)
3,78 x 3,15
9,60 x 8,001
Temperatura de funcionamiento
105 °F x.
MTBF
353 años
Velocidades disponibles
25 Gbps
Modos dúplex
Solo plex
Luces indicadoras
(no disponible)
Enlace y actividad
Conformidad con estándares
Estándares de plano posterior IEEE 802.3
Normativas y seguridad
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 2010 - (Inmunidad) (Unión Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS CISPR - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
KN22 - Emisiones de radiación y conducción (Corea)
l
RoHS (China)
Especificaciones de los adaptadores de red Intel®
10 Gigabit
Característica Intel® Ethernet 10G 2P X710 OCP Intel® Ethernet 10G 2P X710-T2L-t OCP
Conector de bus
PCI Express 3.0 OCP NIC 3.0
Velocidad de bus
x8 PCI Express v3.0 x8
Modo de transmisn/Conector
10G/SFP+ Conector RJ45 BASE-T
Cables
10GBASE-SR
10GBASE-LR
Cables de conexión directa SFP+
10GBASE-T: CAT6A (100 m máx.), CAT6 (55 m
máx.)
1000BASE-T: CAT6A, CAT6, CAT5e (100 m máx.)
Requisitos de alimentacn
6 W x., óptica no incluida 9,0 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
Factor de forma reducido OCP3.0
estándar
2,99 x 4,53 pulgadas
(7,6 x 11,5 cm)
Factor de forma reducido OCP3.0 estándar
2,99 x 4,53 pulgadas
(7,6 x 11,5 cm)
Temperatura de
funcionamiento
23 - 149 °F
(-5 - 65 °C)
32 - 131 °F
(0 - 55 °C)
MTBF
Por determinar Por determinar
Velocidades disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo Dúplex
Luces indicadoras
Enlace
Actividad
Enlace
Actividad
Conformidad con estándares
PCI Express 3.0
SFF-8431
IEEE 802.3ae
OCP NIC 3.0
IEEE 802.3
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL/CSA 62368-1: 2014, segunda edición
l
EN 62368 (Unión Europea)
l
IEC 62368 (internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 32 - Emisiones de radiación y conducción (internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión Europea)
l
EN55035: 2017 (inmunidad) (Unn Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZ CISPR - Emisiones de radiación y conducción (Australia/Nueva Zelanda)
l
KN32 - Emisiones de radiación y conducción (Corea) KN35 - (inmunidad) (Corea)
Característica Adaptador Intel® Ethernet 10G 2P X710-T2L-t
Conector de bus
PCI Express 3.0
Velocidad de bus
x8
Modo de transmisn/Conector
Conector RJ45 BASE-T
Cables
10GBASE-T: CAT6A (100 m máx.), CAT6 (55 m x.)
1000BASE-T: CAT6A, CAT6, CAT5e (100 m máx.)
Requisitos de alimentacn
9,6 W máximo a +12 V
Dimensiones
(sin incluir el soporte)
2,70 x 6,74 pulgadas
(6,86 x 17,12 cm)
Temperatura de funcionamiento
32 - 131 °F
(0 - 55 °C)
MTBF
Por determinar
Velocidades disponibles
10 Gbps/1 Gbps
Modos dúplex
Solo plex
Luces indicadoras
Enlace
Actividad
Conformidad con estándares
IEEE 802.3
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL/CSA 62368-1: 2014, segunda edición
l
EN 62368 (Unión Europea)
l
IEC 62368 (internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 32 - Emisiones de radiación y conducción (internacional)
l
EN55032-2015 - Emisiones de radiación y conducción (Unión
Europea)
l
EN55035: 2017 (inmunidad) (Unn Europea)
l
Directivas de REACH, WEEE, RoHS (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZ CISPR - Emisiones de radiación y conducción (Australia/Nueva
Zelanda)
l
KN32 - Emisiones de radiación y conducción (Corea) KN35 -
(inmunidad) (Corea)
Característica
Adaptador de Ethernet de
red convergente Intel®
X710-T
Adaptador de Ethernet de
red convergente Intel®
X710
Adaptador Ethernet X710-
DA2 para OCP para
servidores
Conector de bus
PCI Express 3.0 PCI Express 3.0 PCI Express 3.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
10GBase-T/RJ-45 SFP+ SFP+
Cables
10GBase-T (Categoría 6A) Twinax
10GBase-SR/LR
Conexión directa
10GBASE-SR
Característica
Adaptador de Ethernet de
red convergente Intel®
X710-T
Adaptador de Ethernet de
red convergente Intel®
X710
Adaptador Ethernet X710-
DA2 para OCP para
servidores
Requisitos de
alimentacn
8,53 W (inactivo) a 12 V de
corriente
6,7 vatios (máximo) a 12 V 3,08 W (máx.) a 5 V de corriente
Dimensiones
(sin incluir el soporte)
6,578 x 4,372 pulgadas
16,708 cm x 11,107 cm
6,578 x 4,372 pulgadas
16,708 cm x 11,107 cm
2,67 x 4,59 pulgadas
6,78 x 11,658 cm
Temperatura de
funcionamiento
32 - 131 °F
(0 - 55 °C)
41 - 131 °F
(5 - 55 °C)
32 - 131 °F
(0 - 55 °C)
MTBF
493 años 491 años 1276 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Luces indicadoras
Enlace / actividad
1Gig/10Gig
Enlace / actividad
1Gig/10Gig
Enlace / actividad
1Gig/10Gig
Conformidad con
esndares
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica
Adaptador Intel®
Ethernet 10G 2P X540-
t
Adaptador Intel® Ethernet 10G 2P
X520
Adaptador Intel®
Ethernet 10G 2P X550-t
Conector de bus
PCI Express 2.0 PCI Express 2.0 PCI Express 3.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
10GBase-T/RJ-45 Cobre Biaxial/SFP+
10GBase-SR/LR
10GBase-T/RJ-45
Cables
10GBase-T (Categoría 6A) 10 Gigabit Ethernet por cable de cobre SFP+
de conexión directa (10GSFP+Cu)
10GBASE-SR/LR
10GBase-T (Categoría 6A)
Requisitos de
alimentacn
15 W ximo a +12 V 6,2 W máximo a +3,3 V 13W máximo a +12 V
Dimensiones
5,7 x 2,7 pulgadas 5,7 x 2,7 pulgadas 5.13 x 2.7 pulgadas
Característica
Adaptador Intel®
Ethernet 10G 2P X540-
t
Adaptador Intel® Ethernet 10G 2P
X520
Adaptador Intel®
Ethernet 10G 2P X550-t
(sin incluir el soporte)
14,5 x 6,9 cm 14,5 x 6,9 cm 13.0 x 6.9 cm
Temperatura de
funcionamiento
32 - 131 °F
(0 - 55 °C)
32 - 131 °F
(0 - 55 °C)
32 - 131 °F
(0 - 55 °C)
MTBF
108 años 83,9 años 127 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Luces indicadoras
Dos por puerto:
Enlace y actividad
Dos por puerto:
Enlace y actividad
Enlace
Actividad
Conformidad con
esndares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3an
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3an
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 3.0
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de la tarjeta Intel® 10 Gigabit Mezzanine
Característica Intel® Ethernet X520 10GbE KX4-KR Mezz de doble puerto
Conector de bus
PCI Express 2.0
Velocidad de bus
x8
Requisitos de alimentacn
7,4 W (máximo) a 3,3 V
Dimensiones
3,65 x 3,3 pulgadas
Temperatura de funcionamiento
32 - 131 °F (0 - 55 °C)
MTBF
147 años
Velocidades disponibles
10 Gbps/1 Gbps
Modos dúplex
Solo plex
Conformidad con estándares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de tarjetas dependientes de red (NDC) Intel®
10GbE
Característica
Intel® Ethernet 10G 4P
X550/I350 rNDC
Intel® Ethernet 10G 4P X550
rNDC
Conector de bus
PCI Express 3.0 PCI Express 3.0
Velocidad de bus
x8 x8
Modo de
transmisión/Conector
Cobre trenzado/RJ-45 Cobre trenzado/RJ-45
Cables
Cat 6A (10 Gbps)/Cat 5e (1 Gbps) Cat 6A
Requisitos de
alimentacn
15,39 W (máx.) a 12 V 33,6 vatios (máximo) a 12 V
Dimensiones
4,34 x 4,012 pulgadas
11,04 x 10,19 cm
4,37 x 5,86 pulgadas
11,10 x 14,883 cm
Temperatura de
funcionamiento
60 °F 60 °F
MTBF
445 436
Velocidades disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo Dúplex
Conformidad con
esndares
IEEE 802.1p IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 3.0
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 3.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica
Intel® Ethernet 10G 4P
X540/I350 rNDC
Intel® Ethernet 10G 4P
X520/I350 rNDC
Intel® Ethernet 10G 2P
X520-k bNDC
Conector de bus
PCI Express 2.0 PCI Express 2.0 PCI Express 2.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
Cobre trenzado/RJ-45 SFP+ Cobre/placa posterior
Cables
Cat 6A (10 Gbps)/Cat 5e (1 Gbps) SFP+ SR/DA 10GBase-KR y 1000Base-KX
Requisitos de
alimentacn
5,5 vatios (máximo) a 3,3 V 10,1 vatios (máximo) a 12 V 0,6 W a 3,3 V (AUX), 6,3 W a 1,2
V (VCORE)
Dimensiones
3,93 x 3,67 pulgadas 4,3 x 3,7 pulgadas 3,0 x 2,5 pulgadas
Temperatura de
funcionamiento
32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C)
MTBF
68 años 65 años 147 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Conformidad con
esndares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.0a
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ap
IEEE 802.3x
ACPI v1.0
PCI Express 2.0a
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica
Intel® Ethernet 10G 4P
X710-k bNDC
Intel® Ethernet 10G 4P
X710/l350 rNDC
Intel® Ethernet 10G 4P X710
SFP+ rNDC
Conector de bus
Dell EMC bNDC PCI Express 3.0 PCI Express 3.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
KX/KR SFP+ SFP+
Cables
Plano posterior Twinax
10GBase-SR/LR
Twinax
10GBase-SR/LR
Requisitos de
alimentacn
3,3 W a 3,3 V (AUX), 12,6 W a 12
V (AUX)
10,7 vatios (máximo) a +12 V 9,5 vatios (máximo) a +12 V
Dimensiones
3,000 x 2,449 pulgadas
7,62 x 6,220 cm
4,331 x 3,661 pulgadas
11,0 x 9,298 cm
4,331 x 3,661 pulgadas
11,0 x 9,298 cm
Temperatura de
funcionamiento
32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C) 32 - 131 °F (0 - 55 °C)
MTBF
828 años 108 años 505 años
Velocidades
disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 10 Gbps/1 Gbps
Modos dúplex
Solo plex Solo plex Solo plex
Luces indicadoras
Ninguna Enlace / actividad
Velocidad
Enlace / actividad
Velocidad
Conformidad con
esndares
PCI Express 3.0
IEEE 802.3ap
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
PCI Express 3.0
SFF-8431
IEEE 802.3z
IEEE 802.3ae
Normativas y
seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de los adaptadores de red Intel® Gigabit
Característica Intel® Ethernet 1G 4P I350-t OCP
Conector de bus
PCI Express 2.1
Velocidad de bus
x4
Modo de transmisn/Conector
1GBase-T/RJ-45
Cables
Cat 5e
Requisitos de alimentacn
Dimensiones
(sin incluir el soporte)
Factor de forma reducido OCP3.0 estándar
2,99 x 4,53 pulgadas (7,6 x 11,5 cm)
Temperatura de funcionamiento
23 - 149 °F
(-5 a 65 °C)
MTBF
Por determinar
Velocidades disponibles
10/100/1000 Mbps
negociación automática
Modos dúplex
Dúplex o semidúplex a 10/100 Mbps; dúplex completo solo a 1000 Mbps
Conformidad con estándares
IEEE 802.3
IEEE 802.3ab
IEEE 802.3u
PCI Express 2.1
OCP NIC 3.0
Luces indicadoras
Dos por puerto:
Enlace y actividad
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Característica Adaptador Intel® Gigabit 2P I350-t y adaptador Intel® Gigabit 4P I350-t
Conector de bus
PCI Express 2.0
Velocidad de bus
x4
Modo de transmisn/Conector
Cobre trenzado/RJ-45
Cables
1000Base-T (Categoría 3 o 5)
Requisitos de alimentacn
Adaptador Intel® Gigabit 2P I350-t : 4.8 Watts @ 12 V
Adaptador Intel® Gigabit 4P I350-t: 6.0 Watts @ 12 V
Dimensiones
(sin incluir el soporte)
5,3 x 2,7 pulgadas
13,5 x 6,9 cm
Temperatura de funcionamiento
32 - 131 °F
(0 - 55 °C)
MTBF
68 años
Velocidades disponibles
10/100/1000
negociación automática
Modos dúplex
Dúplex o semidúplex a 10/100 Mbps; dúplex completo solo a 1000 Mbps
Conformidad con estándares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3az
IEEE 802.3u
IEEE 802.3x
IEEE 802.3z
ACPI v1.0
PCI Express 2.0
Luces indicadoras
Dos por puerto:
Actividad y velocidad
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de la tarjeta Intel® Gigabit Mezzanine
Característica Intel® Gigabit 4P I350-t Mezz
Conector de bus
PCI Express 2.0
Velocidad de bus
x4
Requisitos de alimentacn
3,425 vatios (ximo) a 3,3 V
Dimensiones
3,65 x 3,3 pulgadas
Temperatura de funcionamiento
32 - 131 °F (0 - 55 °C)
MTBF
108 años
Velocidades disponibles
Plena lo a 1000 Mbps
Modos dúplex
Completo a 1000 Mbps
Conformidad con estándares
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ab
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3x
ACPI v1.0
PCI Express 2.0
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y
Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva
Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Especificaciones de tarjetas dependientes de red
Intel® Gigabit
Característica
Intel® Gigabit 4P
X710/I350 rNDC
Intel® Ethernet Gigabit 4P
X550/I350 rNDC
Intel® Gigabit 4P I350-
t rNDC
Conector de bus
PCI Express 2.0 PCI Express 2.0 PCI Express 2.0
Velocidad de bus
x8 x8 x8
Modo de
transmisión/Conector
Cobre trenzado/RJ-45 Cobre trenzado/RJ-45 Cobre trenzado/RJ-45
Cables
Cat-5e Cat-5e Cat-5e
Requisitos de
alimentacn
10,7W ximo a +12 V 15,39 W (máx.) a +12 V 5,5 W (máx.) a +3,3 V
Dimensiones
(sin incluir el soporte)
4,331 x 3,661 pulgadas
11,007 x 9,298 cm
5,86 x 4,35 pulgadas
14,882 x 11,04 cm
5,33 x 2,71 pulgadas
13,54 x 6,59 cm
Temperatura de
funcionamiento
32 - 131 °F
(0 - 55 °C)
32 - 60 °F
(0 - 16 °C)
32 - 60 °F
(0 - 16 °C)
MTBF
108 años 251 años Por determinar
Velocidades disponibles
10 Gbps/1 Gbps 10 Gbps/1 Gbps 1 Gbps
Modos dúplex
Solo plex Solo plex Solo Dúplex
Conformidad con
esndares
PCI Express 2.1
IEEE 802.3i
IEEE 802.3ab
IEEE 802.3u
IEEE 802.3ad
IEEE 802.3az
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.1
IEEE 802.1p
IEEE 802.1Q
IEEE 802.3ac
IEEE 802.3ad
IEEE 802.3ae
IEEE 802.3x
ACPI v1.0
PCI Express 2.1
Normativas y seguridad
Cumplimiento de seguridad
l
UL 60950 Tercera edición- CAN/CSA-C22.2 No.60950-00 (EE. UU. y Canadá)
l
EN 60 950 (Unn Europea)
l
IEC 60 950 (Internacional)
Cumplimiento con EMC
l
FCC Sección 15 - Emisiones de radiación y conducción (EE. UU.)
l
ICES-003 - Emisiones de radiación y conducción (Canadá)
l
CISPR 22 - Emisiones de radiación y conducción (Internacional)
l
EN55022-1998 - Emisiones de radiación y conducción (Unión Europea)
l
EN55024 - 1998 (Inmunidad) (Unión Europea)
l
CE - Normativa EMC (89/336/EEC) (Unión Europea)
l
VCCI - Emisiones de radiación y conducción (Japón)
l
CNS13438 - Emisiones de radiación y conducción (Taiwán)
l
AS/NZS3548 - Emisiones de radiación y conducción (Australia y Nueva Zelanda)
l
Aviso MIC 1997-41, Aviso EMI y MIC 1997-42 - EMS (Corea)
Estándares
l IEEE 802.1p: colas de prioridad (prioridad de tfico) y niveles de Quality of Service (QOS)
l IEEE 802.1Q: identificación de LAN virtual
l IEEE 802.3ab: Gigabit Ethernet por hilo de cobre
l IEEE 802.3ac: Etiquetado
l IEEE 802.3ad: SLA - (FEC/GEC/Agregación de enlaces [modo estático])
l IEEE 802.3ad: modo dinámico
l IEEE 802.3ae: Ethernet de 10 Gb/s
l IEEE 802.3an: 10Gase-T 10 Gbps Ethernet por par trenzado sin blindaje
l IEEE 802.3ap: Ethernet de plano posterior
l IEEE 802.3u: Fast Ethernet
l IEEE 802.3x: control de flujo
l IEEE 802.3z: Gigabit Ethernet por fibra de vidrio
l ACPI: Advanced Configuration and Power Management (Administración avanzada de configuración y
alimentación)
l PCI Express: especificación de bus de sistema: 32/64 bits, x1, x2, x4, x8, x16
Para obtener s información acerca de los estándares IEEE 802, la misma está disponible en
http://www.ieee802.org.
VLAN IEEE 802.3ac:
Las VLAN requieren conmutadores preparados para VLAN, ya sea de forma implícita (solo el conmutador) o explícita
(IEEE 802.3ac). Las VLAN IEEE 802.3ac permiten VLAN múltiples por adaptador, ya que tanto el conmutador como el
adaptador utilizan una etiqueta en el encabezado del paquete para clasificar las VLAN.
Los adaptadores de red Intel Gigabit y 10 Gigabit son totalmente compatibles con VLAN implícitas y explícitas.
Atributos X-UEFI
Esta sección contiene información sobre los atributos X-UEFI y sus valores esperados.
Lista de dispositivos con varios controladores
Los adaptadores que se muestran a continuación tienen más de un controlador. En estos adaptadores, el establecimiento de la configuración basada en el controlador no
afectará a todos los puertos. Solo los puertos enlazados al mismo controlador se verán afectados.
La siguiente configuración se aplicará a todos los puertos de un controlador determinado:
l Modo de virtualización
l Modo NParEP
l Funciones virtuales de PCI anunciadas
Dispositivos con varios controladores Cantidad de
controladores
en el dispositivo
Controlador 1 Controlador 2
Intel® Ethernet 10G 4P X520/I350 rNDC
Intel® Gigabit 4P X520/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Intel® Ethernet 10G 4P X540/I350 rNDC
Intel® Gigabit 4P X540/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Intel® Ethernet 10G 4P X550 rNDC 2 Puertos 1 y 2 10G Puertos 3 y 4 10G
Intel® Ethernet 10G 4P X550/I350 rNDC
Intel® Gigabit 4P X550/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Intel® Ethernet 10G 4P X710/I350 rNDC
Intel® Ethernet 10G X710 rNDC
Intel® Gigabit 4P X710/I350 rNDC
2 Puertos 1 y 2 10G Puertos 3 y 4 1G
Tabla de atributos X-UEFI
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710
Modo de
virtualización
VirtualizationMode X X X X X X X None/NPAR/SR-IOV/NPAR +
SR-IOV (Ninguno/NPAR/SR-
IOV/NPAR + SR-IOV)
None/NPAR/SR-IOV/NPAR +
SR-IOV (Ninguno/NPAR/SR-
IOV/NPAR + SR-IOV)
No Especifica la configuración del
modo de virtualización de la
controladora. "NPAR" y "NPAR +
SR-IOV" solo se admiten en
dispositivos X710 y XXV710. No se
admiten en sistemas operativos de
cliente. La configuración del atributo
se aplica a todos los puertos de un
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710
controlador determinado.
Número de
funciones
virtuales
compatibles
NumberVFSupported X X X X X X X No 0-256 No Número de funciones virtuales
compatibles en este puerto.
Interpretación
de estado de
partición
PartitionStateInterpretation X X No Variable/Fixed (Variable/Fijo) No Describemo se implementa la
partición y cómo se utiliza el
atributo PartitionState en el
controlador. Fixed (Fijo) es el único
valor que se utiliza.
Compatibilidad
con RDMA
RDMASupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si el controlador admite algún
protocolo RDMA. Unavailable (No
disponible) es el único valor que se
utiliza.
Agente LLDP INTEL_LLDPAgent X X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
No Habilita o deshabilita el agente
LLDP del firmware. Tenga en
cuenta que deshabilitar el agente
LLDP del firmware también
deshabilita la funcionalidad de DCB.
Deshabilitar el agente LLDP permite
que los paquetes LLDP del
conmutador pasen sin obstáculos al
sistema operativo. Algunos agentes
LLDP de la capa del sistema
operativo y agentes LLDP de la capa
de red definida por software
necesitan estos paquetes para
funcionar correctamente. Tenga en
cuenta que esta opción no está
disponible en modo NPAR.
Compatibilidad
con SR-IOV
SRIOVSupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad
SR-IOV.
Base de
asignación de
VF
VFAllocBasis X X X X X X X No Device/Port (Puerto/Dispositivo) No Define el dominio en el que se
asignan las funciones virtuales (VF)
Port (Puerto) es el único valor que
se utiliza.
Asignación
múltiple de VF
VFAllocMult X X X X X X X No 1-255 No Las funciones virtuales deben
asignarse a un puerto en múltiplos
de este mero.
Modo NParEP NParEP X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
VirtualizationMode
- NPAR o NPAR
+ SR-IOV
No El modo NParEP habilita más de 8
particiones en el dispositivo. No
debe habilitarse si el sistema y el
sistema operativo no son
compatibles con dispositivos que
tengan más de 8 funciones físicas
de PCI. La configuración del atributo
se aplica a todos los puertos de un
controlador determinado.
Ancho de banda
TX máximo de
la partición n
MaxBandwidth[Partition:n] X X 1-100 1-100 Representa el ancho de banda de
transmisión máximo de la partición
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710
como porcentaje de la velocidad
máxima de enlace del puerto físico.
El intervalo de ancho de banda
máximo es del 1-100 por ciento
para cada partición habilitada. Si el
valor de ancho de banda máximo
configurado de forma remota en la
partición n es menor que el ancho
de banda mínimo en la partición n,
se utilizará el ancho de banda
mínimo.
Ancho de banda
TX mínimo de
la partición n
MinBandwidth[Partition:n] X X 1-100 1-100 Representa el ancho de banda de
transmisión mínimo de la partición
como porcentaje de la velocidad
máxima de enlace del puerto físico.
El intervalo de ancho de banda
mínimo es del 1-100 por ciento para
cada partición habilitada. El ancho
de banda mínimo de todas las
particiones habilitadas en un puerto
debe agregarse hasta el 100 %. Si
los porcentajes de ancho de banda
mínimo configurados de forma
remota no suman 100, el firmware
los normalizará automáticamente a
100.
LUN de inicio FirstTgtBootLun X X X X X X X 0-255 0-255 Especifica el número de unidad
lógica (LUN) de arranque en el
primer destino de almacenamiento
iSCSI.
Contraseña de
CHAP
FirstTgtChapPwd X X X X X X X cadena cadena Especifica el secreto del protocolo
de autenticación por desafío mutuo
(contraseña CHAP) del primer
destino de almacenamiento iSCSI.
El valor de la cadena está limitado a
caracteres alfanuméricos, "."
(punto), ":" (dos puntos) y "-"
(guion).
Dirección IP FirstTgtIpAddress X X X X X X X X.X.X.X X.X.X.X Especifica la dirección IP del primer
destino de iSCSI.
Nombre de
iSCSI
FirstTgtIscsiName X X X X X X X cadena cadena Especifica el nombre completo de
iSCSI (IQN) del primer destino de
almacenamiento iSCSI. El valor de
la cadena está limitado a caracteres
alfanuméricos, "." (punto), ":" (dos
puntos) y "-" (guion).
Puerto TCP FirstTgtTcpPort X X X X X X X 1024-65535 1024-65535 Especifica el número de puerto TCP
del primer destino de iSCSI.
ID de CHAP IscsiInitiatorChapId X X X X X X X cadena cadena ChapAuthEnable -
Enabled
(Habilitado)
Especifica el primer ID del
protocolo de autenticación por
desao mutuo (CHAP) del primer
destino de almacenamiento iSCSI.
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710
El valor de la cadena está limitado a
caracteres alfanuméricos, "."
(punto), ":" (dos puntos) y "-"
(guion).
Autenticación
CHAP
ChapAuthEnable X X X X X X X Enabled/Disabled
(Habilitado/Deshabilitado)
Enabled/Disabled
(Habilitado/Deshabilitado)
No Habilita el iniciador para utilizar la
autenticación CHAP al realizar la
conexión al destino de iSCSI.
Parámetros de
TCP/IP
mediante
DHCP
TcpIpViaDHCP X X X X X X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
No Controla el origen de la dirección IP,
DHCP o asignación estática del
iniciador. Esta opción es específica
de IPv4.
Versión de IP IpVer X X X X X X X No IPv4 No Controla si se utilizará el
direccionamiento de red IPv4 o IPv6
para el iniciador y los destinos de
iSCSI. Actualmente solo se acepta
IPv4.
Autenticación
mutua CHAP
ChapMutualAuth X X X X X X X Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
ChapAuthEnable -
Enabled
(Habilitado)
No Habilita o deshabilita la
autenticación mutua CHAP. Para
utilizar la autenticación mutua
CHAP, debe especificar un secreto
del iniciador en la página
Parámetros del iniciador y
configurar ese secreto en el destino.
Parámetros de
iSCSI mediante
DHCP
IscsiViaDHCP X X X X X X X Sí Disabled/Enabled
(Habilitado/Deshabilitado)
Disabled/Enabled
(Habilitado/Deshabilitado)
TcpIpViaDHCP -
Enabled
(Habilitado)
No Habilita la adquisición de
parámetros de destino de iSCSI
desde DHCP.
Nombre de
iSCSI
IscsiInitiatorName X X X X X X X cadena cadena Especifica el nombre completo de
iSCSI (IQN) del iniciador. La
configuración del atributo se aplica a
todos los puertos de un controlador
determinado. Se recomienda utilizar
el mismo valor de
IscsiInitiatorName en todos los
puertos para un dispositivo
determinado.
Contraseña de
CHAP
IscsiInitiatorChapPwd X X X X X X X cadena cadena ChapAuthEnable -
Enabled
(Habilitado)
Establece el secreto (contraseña)
del protocolo de autenticación por
desao mutuo (CHAP) del iniciador
de iSCSI. El valor de la cadena está
limitado a caracteres
alfanuméricos, "." (punto), ":" (dos
puntos) y "-" (guion).
Puerta de
enlace
predeterminada
IscsiInitiatorGateway X X X X X X X X.X.X.X X.X.X.X TcpIpViaDHCP -
Disabled
(Deshabilitado)
Especifica la dirección IP de la
puerta de enlace predeterminada
utilizada por el iniciador de iSCSI.
Dirección IP IscsiInitiatorIpAddr X X X X X X X X.X.X.X X.X.X.X TcpIpViaDHCP -
Disabled
(Deshabilitado)
Especifica la dirección IP del
iniciador de iSCSI.
Máscara de
subred
IscsiInitiatorSubnet X X X X X X X X.X.X.X X.X.X.X TcpIpViaDHCP -
Disabled
Especifica la máscara de subred
IPv4 del iniciador de iSCSI.
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710
(Deshabilitado)
LED
parpadeantes
BlnkLeds X X X X X X X 0-15 0-15 No Especifica el número de segundos
que deben parpadear los LED en el
puerto de red físico para ayudar con
la identificación del puerto.
Dirección MAC
virtual
VirtMacAddr X X X X X X X XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX Establece la dirección MAC
asignable programáticamente para
el puerto.
FlexAddressing FlexAddressing X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la función
FlexAddressing de Dell.
Soporte de
iSCSI Boot
iSCSIBootSupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite iSCSI Boot.
Compatibilidad
con versión de
IP dual de
iSCSI
iSCSIDualIPVersionSupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica la compatibilidad para
configuraciones IPv4 e IPv6
simultáneas del iniciador de iSCSI y
los destinos primarios y
secundarios de iSCSI. Unavailable
(No disponible) es el único valor
que se utiliza.
Compatibilidad
con descarga
de iSCSI
iSCSIOffloadSupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad de
descarga iSCSI. Unavailable (No
disponible) es el único valor que se
utiliza.
Link Status LinkStatus X X X X X X X No Disconnected/Connected
(Desconectado/Conectado)
No Indica el estado del enlacesico de
los puertos de red que muestra el
controlador.
Dirección MAC MacAddr X X X X X X X No XX:XX:XX:XX:XX:XX No Indica la dirección MAC
permanente asignada durante la
fabricación.
Soporte de
particiones NIC
NicPartitioningSupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad de
creación de particiones NIC.
Paso a través
de
administración
de BMC del SO
OSBMCManagementPassThrough X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad
Paso a través de administración de
BMC del SO.
ID de
dispositivo PCI
PCIDeviceID X X X X X X X No XXXX No Indica el ID de dispositivo PCI del
controlador.
Soporte de
inicio PXE
PXEBootSupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad
PXE Boot.
Control de flujo
RX
RXFlowControl X X X No Available/Unavailable
(Disponible/No disponible)
No Indica se admite la capacidad de
control de flujo de recepción (RX).
"Unavailable" (No disponible) es el
único valor que se utiliza.
Asistencia de
TOE
TOESupport X X X X X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad
Motor de descarga TCP/IP.
Unavailable (No disponible) es el
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710
único valor que se utiliza.
Control
máximo de
ancho de banda
de TX
TXBandwidthControlMaximum No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad
Control máximo de ancho de banda
de transmisión (TX).
Control de flujo
TX
TXFlowControl X X X No Available/Unavailable
(Disponible/No disponible)
No Indica si se admite la capacidad
Control de flujo de transmisión
(TX). Unavailable (No disponible)
es el único valor que se utiliza.
Protocolo de
inicio heredado
LegacyBootProto X X X X X X X Sí None/PXE/iSCSI Primary/iSCSI
Secondary
(Ninguno/PXE/Primario de
iSCSI/Secundario de iSCSI)
None/PXE/iSCSI Primary/iSCSI
Secondary
(Ninguno/PXE/Primario de
iSCSI/Secundario de iSCSI)
No Selecciona un protocolo de arranque
que se utilizará en el modo de
arranque (no UEFI) en el BIOS
heredado.
ID de LAN
virtual
heredado
VLanId X X X X X X X 0-4094 0-4094 No Especifica el ID (etiqueta) que debe
utilizarse para el modo de VLAN
PXE. El ID de VLAN debe tener un
valor de 0 a 4094. VLAN PXE se
deshabilita si el valor se establece
en 0.
Wake On LAN WakeOnLan X X X X X X X Disabled/Enabled/'N/A'
(Habilitado/Deshabilitado/"N/C")
Disabled/Enabled/'N/A'
(Habilitado/Deshabilitado/"N/C")
No Habilita el encendido del sistema a
través de la LAN. Tenga en cuenta
que configurar Wake on LAN en el
sistema operativo no cambia el
valor de este ajuste, peroque
altera el comportamiento de Wake
on LAN en los estados de
alimentación controlados por el SO.
Velocidad de
enlace
LnkSpeed X X X X X X X *Sí Auto Negotiated/1000 Mbps
Full/10 Mbps Half/10 Mbps
Full/100 Mbps Half/100 Mbps
Full (Negociación
automática/Completo a 1000
Mbps/Medio a 10
Mbps/Completo a 10
Mbps/Medio a 100
Mbps/Completo a 100 Mbps)
Auto Negotiated/1000 Mbps
Full/10 Mbps Half/10 Mbps
Full/100 Mbps Half/100 Mbps
Full (Negociación
automática/Completo a 1000
Mbps/Medio a 10
Mbps/Completo a 10
Mbps/Medio a 100
Mbps/Completo a 100 Mbps)
No Especifica la velocidad de enlace
del puerto que se utilizaal
arrancar el protocolo seleccionado.
*El atributo solo tiene permiso de
escritura en dispositivos 1G (I350).
Funciones
virtuales de
PCI anunciadas
NumberVFAdvertised X X X X X X X I350: 1-8, X520/X540/X550: 1-64,
X710/XL710/XXV710: 0-127
I350: 1-8, X520/X540/X550: 1-64,
X710/XL710/XXV710: 0-127
VirtualizationMode
- SR-IOV
No Especifica el número de funciones
virtuales (VF) de PCI que se va a
anunciar en modo distinto de NPAR.
Los valores disponibles varían entre
familias de productos. En los
dispositivos basados en I350, X520,
X540 y X550, el valor representa el
número total de VF de PCI que se
compartirán entre todos los puertos
de un controlador determinado. En
todos los demás dispositivos, el
valor representa el número de VF
de PCI que se dedicaa cada
puerto.
Funciones
virtuales de
NumberVFAdvertised X X 0-128 0-128 VirtualizationMode
- NPAR + SR-IOV
No Especifica el número de funciones
Mostrar
nombre
Nombre de X-UEFI Adaptadores compatibles Configurable
por el
usuario
Valores configurables por el
usuario
Valores que se pueden mostrar Dependencias
para valores
Optimización
de identidad
de E/S
(iDRAC 8/9)
Información
I350 X520 X540 X550 X710 XL710 XXV710
PCI anunciadas virtuales (VF) de PCI que se va a
anunciar en este puerto en modo de
NPAR. Este atributo solo está
presente en el navegador HII. Las
funciones virtuales en modo NPAR
solo pueden asignarse a la primera
partición en un puerto. Utilice el
atributo VFDistribution para la
configuración remota.
Número de
funciones de
PCI físico
habilitadas
actualmente
por puerto
NumberPCIFunctionsEnabled X X X No 1-8 No Indica el número de funciones
sicas de PCI habilitadas
actualmente en este puerto.
Número de
funciones
sicas de PCI
compatibles
NumberPCIFunctionsSupported X X X No 1-8 No Indica el número de funciones
sicas de PCI admitidas en este
puerto. Este valor puede cambiar en
función de la compatibilidad y
configuración de NParEP.
Partición n PartitionState[Partition:n] X X X No Enabled/Disabled
(Habilitado/Deshabilitado)
No Indica el estado de habilitación
actual de la partición.
Dirección MAC
virtual
VirtMacAddr[Partition:n] X X X XX:XX:XX:XX:XX:XX XX:XX:XX:XX:XX:XX Indica la dirección MAC asignable
programáticamente para la
partición.
Dirección MAC MacAddr[Partition:n] X X X No XX:XX:XX:XX:XX:XX No Indica la dirección MAC
permanente asignada durante la
fabricación.
Modo NIC NicMode[Partition:n] X X X No Disabled/Enabled
(Habilitado/Deshabilitado)
No Especifica el uso de la partición
para el tráfico L2-Ethernet. Enabled
(Activado) es el único valor que se
utiliza.
ID de
dispositivo PCI
PCIDeviceID[Partition:n] X X X No XXXX No Indica el ID de dispositivo PCI de la
partición.
Número de
puerto
PortNumber[Partition:n] X X X No 1-4 No Indica el puerto al cual pertenece la
partición, donde n es el número de
particiones.
Distribución de
VF
VFDistribution X X X X:0:0:0:...:0:0 (el número de
ceros depende del número de
particiones actualmente
habilitadas en el puerto).
X:0:0:0:...:0:0 (el número de
ceros depende del número de
particiones actualmente
habilitadas en el puerto).
VirtualizationMode
- NPAR + SR-IOV
No Define la distribución de las VF a
PF dentro del dominio especificado
por VFAllocBasis. Aparece un valor
en la lista separada por signos de
dos puntos para cada función física
(PF) que pueda estar
potencialmente presente en el
dominio de asignación. Los valores
de la lista, de izquierda a derecha,
se aplican a los números de función
en el dominio desde el más pequo
al más grande.
Exención de responsabilidades legales
Contrato de licencia del software
CONTRATO DE LICENCIA DEL SOFTWARE DE INTEL (Licencia, Final)
IMPORTANTE: LÉASE ANTES DE COPIAR, INSTALAR O UTILIZAR.
Lea atentamente los siguientes términos y condiciones antes de usar o instalar este software y los materiales
asociados (el Software). Al cargar o utilizar el Software, usted indica que acepta los términos de este Contrato. Si
no está dispuesto a aceptarlo, no instale ni utilice el Software.
LICENCIAS
Tenga en cuenta lo siguiente:
l Si es usted un administrador de redes, le corresponde la sección "Licencia de sitio".
l Si es un usuario final, le corresponde la sección "Licencia de usuario individual".
LICENCIA DE SITIO. Podrá copiar el software en los sistemas de su organización para su uso, y pod efectuar un
mero prudente de copias de seguridad del software, sujeto a las siguientes condiciones:
1. Se autoriza el uso de este Software únicamente en conjunto con los productos de componentes Intel. Este
documento no otorga licencia para el uso del software con productos de componentes ajenos a Intel.
2. No puede copiar, modificar, alquilar, vender, distribuir ni transferir parte alguna del Software, excepto según se
especifique en este Contrato, y se aviene a impedir la copia no autorizada del Software.
3. No puede usar técnicas de ingeniea inversa, descompilar o desensamblar el Software.
4. No puede otorgar sublicencias ni permitir el uso simultáneo del Software por más de un usuario.
5. El software podrá incluir porciones que se ofrecen en términos agregados a los estipulados en el presente
contrato, según se expresan en la licencia que acompaña a esas porciones.
LICENCIA DE USUARIO ÚNICO. Puede copiar el Software en un único sistema para su uso personal, no comercial, y
realizar una copia de seguridad del Software con estas condiciones:
1. Se autoriza el uso de este Software únicamente en conjunto con los productos de componentes Intel. Este
documento no otorga licencia para el uso del software con productos de componentes ajenos a Intel.
2. No puede copiar, modificar, alquilar, vender, distribuir ni transferir parte alguna del Software, excepto según se
especifique en este Contrato, y se aviene a impedir la copia no autorizada del Software.
3. No puede usar técnicas de ingeniea inversa, descompilar o desensamblar el Software.
4. No puede otorgar sublicencias ni permitir el uso simultáneo del Software por más de un usuario.
5. El software podrá incluir porciones que se ofrecen en términos agregados a los estipulados en el presente
contrato, según se expresan en la licencia que acompaña a esas porciones.
PROPIEDAD DEL SOFTWARE Y DERECHOS DE AUTOR. Todas las copias del Software seguirán siendo propiedad
de Intel o de sus proveedores. El Software está protegido por copyright y por las leyes de Estados Unidos y de otros
países, y tratados internacionales en materia de propiedad intelectual. No puede eliminar ninn aviso de copyright
del Software. Intel puede efectuar cambios en el Software o en los componentes a los que se hace referencia en el
mismo en cualquier momento y sin previo aviso, pero no está obligada a prestar asistencia ni a actualizar el Software.
A menos que se estipule expresamente lo contrario, Intel no concede derecho alguno, ya sea expreso o tácito, sobre
las patentes, derechos de copyright, marcas u otros derechos de propiedad intelectual de Intel. Puede transferir el
Software solamente si el destinatario acepta someterse plenamente a los presentes términos y si usted no retiene
ninguna copia del Software.
GARANA LIMITADA DEL MEDIO. Si Intel ha entregado el software en soporte físico, garantiza que dicho soporte
está libre de defectos físicos de material durante un período de noventa días tras la entrega. Si encuentra aln
defecto semejante, devuelva el soporte a Intel para reemplazarlo o para que Intel le entregue el Software de otro
modo, a discreción de Intel.
EXCLUSIÓN DE OTRAS GARANAS. EXCEPTO LO YA DISPUESTO, SE PROPORCIONA EL SOFTWARE EN EL
ESTADO QUE SE ENCUENTRA Y SIN GARANAS EXPRESAS O IMPLÍCITAS DE NINGÚN TIPO, ENTRE OTRAS,
GARANAS DE COMERCIABILIDAD, NO INFRACCIÓN O APTITUD PARA UN FIN DETERMINADO. Intel no
garantiza ni asume responsabilidad por la exactitud ni la integridad de ninguna información, texto, gfico,nculo u
otro elemento contenido en el Software.
LIMITACIÓN DE RESPONSABILIDAD. EN NINGÚN CASO NI INTEL NI SUS PROVEEDORES SERÁN
RESPONSABLES POR DAÑO ALGUNO DERIVADO DEL USO DEL SOFTWARE, O DE NO PODER USARLO
(INCLUYENDO, SIN LIMITACN ALGUNA, LOS DAÑOS DERIVADOS DEL LUCRO CESANTE, DE LA
INTERRUPCN DE LA ACTIVIDAD O EL NEGOCIO, O DE LA RDIDA DE DATOS O INFORMACN), AUNQUE
INTEL HUBIERA SIDO ADVERTIDA DE DICHA POSIBILIDAD. EN ALGUNAS JURISDICCIONES ESTÁ PROHIBIDA
LA EXCLUSIÓN O LIMITACN DE RESPONSABILIDAD POR GARANAS IMPLÍCITAS O POR DAÑOS
CONSECUENTES O FORTUITOS, POR LO QUE LA LIMITACN ANTERIOR PODRÍA NO SER APLICABLE EN SU
CASO. TAMBIÉN PODRÍA TENER OTROS DERECHOS POR LEY QUE PUEDEN VARIAR DE UNA JURISDICCIÓN
A OTRA.
RESCISIÓN DE ESTE CONTRATO. Intel puede rescindir este Contrato en cualquier momento si se violan sus
términos. Una vez rescindido, tendrá que destruir de inmediato el Software o devolver todas las copias a Intel.
LEGISLACIÓN APLICABLE. Cualquier litigio o reclamación que se derive de este contrato se regirá por la legislación
del Estado de California, con exclusión de sus principios de conflicto de leyes y la Convención de las Naciones
Unidas sobre la venta internacional de mercaderías. Queda prohibida la exportación del Software en contravención
de las leyes y reglamentos aplicables en materia de exportación. Intel no adquiere obligación alguna bajo ninn otro
acuerdo a menos que se formalice por escrito y esté debidamente firmado por un representante autorizado de Intel.
DERECHOS RESTRINGIDOS DEL ESTADO. El Software se suministra con "DERECHOS LIMITADOS". Su uso,
reproducción o divulgación por el Gobierno está sujeto a las restricciones establecidas en FAR52.227-14 y
DFAR252.227-7013 y siguientes, o sus sucesoras. El uso del Software por parte del Gobierno implica el
reconocimiento de los derechos de propiedad de Intel sobre el mismo. El contratista o fabricante es Intel.
Licencias de terceros
Esta versión puede incluir porciones de software distribuido con las siguientes licencias.
Open Toolkit Library (OpenTK)
La licencia de Open Toolkit library
Copyright (c) 2006 - 2009 The Open Toolkit library.
Por el presente se otorga permiso, libre de cargos, a cualquier persona que obtenga copia de este software y de los
documentos asociados (el "Software"), para trabajar en el software sin restricción alguna, incluidos, sin limitación,
derechos para usar, copiar, modificar, combinar, publicar, distribuir, subconceder, o vender copias del Software, y
permitir a las personas a quienes se proporcione el Software hacer lo mismo, sujeto a las siguientes condiciones
La notificación de derecho de copyright citada más arriba, y esta nota de permiso, deberán ser incluidas en todas las
copias, o porciones substanciales del Software.
EL SOFTWARE SE ENVÍA "TAL CUAL", SIN GARANTÍA DE NINGÚN TIPO, YA SEA EXPLÍCITA O IMPLÍCITA,
INCLUIDAS, ENTRE OTRAS, LAS GARANAS DE COMERCIABILIDAD, IDONEIDAD PARA UN DETERMINADO FIN
Y AUSENCIA DE INFRACCIÓN. EN NINGÚN CASO LOS AUTORES O TITULARES DE LOS DERECHOS DE
PROPIEDAD INTELECTUAL SERÁN RESPONSABLES DE LOS RECLAMOS, DAÑOS U OTRA RESPONSABILIDAD,
TANTO SI TIENEN UN ORIGEN CONTRACTUAL, POR AGRAVIO O DE OTRO TIPO, QUE SURGEN DENTRO O
FUERA, O EN CONEXIÓN CON EL SOFTWARE O EL USO DEL SOFTWARE U OTRAS TRANSACCIONES
RELACIONADOS CON ESTE.
Terceros
* The Open Toolkit library incluye porciones de la biblioteca de clases Mono, que están cubiertas por la licencia
siguiente:
Copyright (c) 2004 Novell, Inc.
Por el presente se otorga permiso, libre de cargos, a cualquier persona que obtenga copia de este software y de los
documentos asociados (el "Software"), para trabajar en el software sin restricción alguna, incluidos, sin limitación,
derechos para usar, copiar, modificar, combinar, publicar, distribuir, subconceder, o vender copias del Software, y
permitir a las personas a quienes se proporcione el Software hacer lo mismo, sujeto a las siguientes condiciones:
La notificación de derecho de copyright citada más arriba, y esta nota de permiso, deberán ser incluidas en todas las
copias, o porciones substanciales del Software.
EL SOFTWARE SE ENVÍA "TAL CUAL", SIN GARANTÍA DE NINGÚN TIPO, YA SEA EXPLÍCITA O IMPLÍCITA,
INCLUIDAS, ENTRE OTRAS, LAS GARANAS DE COMERCIABILIDAD, IDONEIDAD PARA UN DETERMINADO FIN
Y AUSENCIA DE INFRACCIÓN. EN NINGÚN CASO LOS AUTORES O TITULARES DE LOS DERECHOS DE
PROPIEDAD INTELECTUAL SERÁN RESPONSABLES DE LOS RECLAMOS, DAÑOS U OTRA RESPONSABILIDAD,
TANTO SI TIENEN UN ORIGEN CONTRACTUAL, POR AGRAVIO O DE OTRO TIPO, QUE SURGEN DENTRO O
FUERA, O EN CONEXIÓN CON EL SOFTWARE O EL USO DEL SOFTWARE U OTRAS TRANSACCIONES
RELACIONADOS CON ESTE.
* Las conversiones de precisión media a única y de precisión única a media están cubiertas por la licencia siguiente:
Copyright (c) 2002, Industrial Light & Magic, una división de Lucas Digital Ltd. LLC. Todos los derechos reservados.
Se permite la redistribución y uso en formato fuente o binario, con o sin modificación, siempre que se cumplan las
condiciones siguientes:
l Las redistribuciones de código fuente deben conservar el aviso de copyright anterior, esta lista de condiciones
y la renuncia de responsabilidad siguiente.
l Las redistribuciones en formato binario deben reproducir el aviso de copyright anterior, esta lista de
condiciones y la renuncia de responsabilidad siguiente en la documentación o los materiales proporcionados
con la distribución.
l Ni el nombre de Industrial Light & Magic ni los nombres de sus colaboradores deben emplearse para
promocionar productos derivados de este software sin un previo permiso por escrito correspondiente.
LOS PORTADORES DE COPYRIGHT Y LOS CONTRIBUIDORES PROPORCIONAN ESTE SOFTWARE “TAL CUAL”,
Y SE RENUNCIA A CUALQUIER GARANA EXPLÍCITA O IMPLÍCITA, INCLUSO Y SIN LIMITACIÓN, LAS
GARANTÍAS IMPLÍCITAS DE COMERCIABILIDAD E IDONEIDAD PARA UN PROPÓSITO PARTICULAR. EL
PROPIETARIO DEL COPYRIGHT O LOS CONTRIBUIDORES NO SERÁN RESPONSABLES EN NINGÚN MOMENTO
POR DAÑOS DIRECTOS, INDIRECTOS, CASUALES, ESPECIALES, PICOS O CONSECUENTES (LO CUAL
INCLUYE, SIN LIMITACIÓN, LA ADQUISICN DE BIENES O SERVICIOS; LA PÉRDIDA DE USO, DATOS O
GANANCIAS; O LA INTERRUPCN COMERCIAL) OCASIONADOS DE CUALQUIER MODO Y BAJO CUALQUIER
TEORÍA DE RESPONSABILIDAD, YA SEA BAJO CONTRATO, RESPONSABILIDAD ESTRICTA O AGRAVIO (LO
CUAL INCLUYE LA NEGLIGENCIA O CUALQUIER OTRO) QUE SURJA DE CUALQUIER MANERA POR EL USO DE
ESTE SOFTWARE, N SI SE NOTIFICA DE LA POSIBILIDAD DE DICHOS DOS.
RSA Data Security-MD5 Message
RSA Data Security
Copyright (C) 1991-2, RSA Data Security, Inc. Creado en 1991. Todos los derechos reservados.
La licencia para copiar y utilizar este software se concede siempre que se identifique como "RSA Data Security, Inc.
MD5 Message-Digest Algorithm" en todo el material que mencione o haga referencia a este software o esta función.
Asimismo, se concede la licencia para crear y utilizar trabajos derivados siempre que dichos trabajos se identifiquen
como "derivados de RSA Data Security, Inc. MD5 Message-Digest Algorithm" en todo el material que mencione o haga
referencia al trabajo derivado.
RSA Data Security, Inc. no hace ninguna representación sobre la comerciabilidad o adecuación de este software para
cualquier propósito espefico. Se proporciona "tal cual" sin ninn tipo de garantía, ni expresa ni implícita.
Estos avisos deben conservarse en todas las copias de cualquier parte de este software o documentación.
Restricciones y exenciones de responsabilidad
La informacn de este documento está sujeta a cambios sin previo aviso.
Copyright © 2008-2019, Intel Corporation. Todos los derechos reservados.
Marcas comerciales que se utilizan en este texto: Dell EMC y el logotipo de Dell EMC son marcas comerciales de Dell,
Inc.; Intel es una marca comercial de Intel Corporation o de sus filiales en Estados Unidos y/o en otros países.
* En este documento se podrían utilizar marcas comerciales y nombres comerciales para hacer referencia a las
entidades que reclaman las marcas y nombres o sus productos. Intel Corporation rechaza cualquier intes sobre la
propiedad de marcas registradas y nombres comerciales distintos de los suyos propios.
Restricciones y exenciones de responsabilidad
El proveedor del dispositivo mencionado suministró la información que se incluye en este documento, incluyendo las
instrucciones, advertencias, aprobaciones y certificaciones normativas, pero carece de la verificación y las pruebas
independientes de la empresa Dell. Dell EMC no se responsabiliza de los daños generados como consecuencia del
seguimiento o no seguimiento de estas instrucciones.
El autor de todas las descripciones o afirmaciones relacionadas con las propiedades, la capacidad, la velocidad y las
calificaciones del producto mencionadas en este documento es el proveedor y no la empresa Dell EMC. Dell EMC
específicamente declara que desconoce la precisión de dichas descripciones, acomo cuán completas sean o si se
han comprobado. Se debe dirigir cualquier pregunta o comentario relacionado con dichas descripciones o
afirmaciones directamente al proveedor.
Reglamentos de exportaciones
El cliente reconoce que estos productos, que pueden incluir tecnología y software, están sujetos a las leyes y
reglamentos de control de exportaciones y aduanas de los Estados Unidos (EE. UU.) y que también podrían estar
sujetos a las leyes y reglamentos de exportación y aduanas del país en el que se fabricaron o se recibieron los
productos. El cliente acepta acatar dichas leyes y reglamentos. Más aún, bajo la ley de los EE. UU., los productos no
pueden ser vendidos, rentados ni transferidos de ninguna otra forma a usuarios finales restringidos ni a países
restringidos. Ades, los productos no pueden ser vendidos, rentados o transferidos de ninguna otra forma, ni
utilizados por usuarios finales que realicen actividades relacionadas con armas de destrucción masiva, incluyendo,
entre otras, las actividades relacionadas con el diseño, desarrollo, producción o uso de armas nucleares, materiales o
instalaciones, misiles o el apoyo de proyectos de misiles y armas químicas o biológicas.
19 de diciembre de 2019
  • Page 1 1
  • Page 2 2
  • Page 3 3
  • Page 4 4
  • Page 5 5
  • Page 6 6
  • Page 7 7
  • Page 8 8
  • Page 9 9
  • Page 10 10
  • Page 11 11
  • Page 12 12
  • Page 13 13
  • Page 14 14
  • Page 15 15
  • Page 16 16
  • Page 17 17
  • Page 18 18
  • Page 19 19
  • Page 20 20
  • Page 21 21
  • Page 22 22
  • Page 23 23
  • Page 24 24
  • Page 25 25
  • Page 26 26
  • Page 27 27
  • Page 28 28
  • Page 29 29
  • Page 30 30
  • Page 31 31
  • Page 32 32
  • Page 33 33
  • Page 34 34
  • Page 35 35
  • Page 36 36
  • Page 37 37
  • Page 38 38
  • Page 39 39
  • Page 40 40
  • Page 41 41
  • Page 42 42
  • Page 43 43
  • Page 44 44
  • Page 45 45
  • Page 46 46
  • Page 47 47
  • Page 48 48
  • Page 49 49
  • Page 50 50
  • Page 51 51
  • Page 52 52
  • Page 53 53
  • Page 54 54
  • Page 55 55
  • Page 56 56
  • Page 57 57
  • Page 58 58
  • Page 59 59
  • Page 60 60
  • Page 61 61
  • Page 62 62
  • Page 63 63
  • Page 64 64
  • Page 65 65
  • Page 66 66
  • Page 67 67
  • Page 68 68
  • Page 69 69
  • Page 70 70
  • Page 71 71
  • Page 72 72
  • Page 73 73
  • Page 74 74
  • Page 75 75
  • Page 76 76
  • Page 77 77
  • Page 78 78
  • Page 79 79
  • Page 80 80
  • Page 81 81
  • Page 82 82
  • Page 83 83
  • Page 84 84
  • Page 85 85
  • Page 86 86
  • Page 87 87
  • Page 88 88
  • Page 89 89
  • Page 90 90
  • Page 91 91
  • Page 92 92
  • Page 93 93
  • Page 94 94
  • Page 95 95
  • Page 96 96
  • Page 97 97
  • Page 98 98
  • Page 99 99
  • Page 100 100
  • Page 101 101
  • Page 102 102
  • Page 103 103
  • Page 104 104
  • Page 105 105
  • Page 106 106
  • Page 107 107
  • Page 108 108
  • Page 109 109
  • Page 110 110
  • Page 111 111
  • Page 112 112
  • Page 113 113
  • Page 114 114
  • Page 115 115
  • Page 116 116
  • Page 117 117
  • Page 118 118
  • Page 119 119
  • Page 120 120
  • Page 121 121
  • Page 122 122
  • Page 123 123
  • Page 124 124
  • Page 125 125
  • Page 126 126
  • Page 127 127
  • Page 128 128
  • Page 129 129
  • Page 130 130
  • Page 131 131
  • Page 132 132
  • Page 133 133
  • Page 134 134
  • Page 135 135
  • Page 136 136
  • Page 137 137
  • Page 138 138
  • Page 139 139
  • Page 140 140
  • Page 141 141
  • Page 142 142
  • Page 143 143
  • Page 144 144
  • Page 145 145
  • Page 146 146
  • Page 147 147
  • Page 148 148
  • Page 149 149
  • Page 150 150
  • Page 151 151
  • Page 152 152
  • Page 153 153
  • Page 154 154
  • Page 155 155
  • Page 156 156
  • Page 157 157
  • Page 158 158
  • Page 159 159
  • Page 160 160
  • Page 161 161
  • Page 162 162
  • Page 163 163
  • Page 164 164
  • Page 165 165
  • Page 166 166
  • Page 167 167
  • Page 168 168
  • Page 169 169
  • Page 170 170
  • Page 171 171
  • Page 172 172
  • Page 173 173
  • Page 174 174
  • Page 175 175
  • Page 176 176
  • Page 177 177
  • Page 178 178
  • Page 179 179
  • Page 180 180
  • Page 181 181
  • Page 182 182
  • Page 183 183
  • Page 184 184
  • Page 185 185
  • Page 186 186
  • Page 187 187
  • Page 188 188
  • Page 189 189
  • Page 190 190
  • Page 191 191
  • Page 192 192
  • Page 193 193
  • Page 194 194
  • Page 195 195
  • Page 196 196
  • Page 197 197
  • Page 198 198
  • Page 199 199
  • Page 200 200
  • Page 201 201

Dell Intel PRO Family of Adapters Guía del usuario

Categoría
Tarjetas de redes
Tipo
Guía del usuario