iPerf3 es una herramienta para medir activamente el ancho de banda máximo alcanzable en una red IP. Permite ajustar varios parámetros relacionados con el tiempo, búferes y protocolos (TCP, UDP, SCTP con IPv4 e IPv6). Para cada prueba, informa sobre el ancho de banda, la pérdida y otros parámetros. Esta es una nueva implementación que no comparte código con el iPerf original y no es compatible hacia atrás. iPerf fue desarrollado originalmente por NLANR/DAST. iPerf3 fue desarrollado principalmente por ESnet/Lawrence Berkeley National Laboratory.
La familia de herramientas iperf realiza mediciones activas para determinar el ancho de banda máximo alcanzable en una red IP. Permite ajustar varios parámetros relacionados con el tiempo, protocolos y buffers. Para cada prueba, informa del rendimiento medido, la pérdida y otros parámetros.
Esta versión, a veces denominada iperf3, es un rediseño de la versión original desarrollada por NLANR / DAST. IPerf3 es una nueva implementación desde cero que busca una base de código más pequeña y sencilla, y una versión de la biblioteca que pueda usarse en otros programas. IPerf3 también incorpora funciones de muchas otras herramientas como Nuttcp y Netperf, que faltan en el IPerf original. Estos incluyen, por ejemplo, el modo de copia cero y la salida JSON opcional. Ten en cuenta que iperf3 no es compatible hacia atrás con el iperf original.
iPerf3 puede usarse para probar la velocidad de comunicación de red del dispositivo, e iPerf3 puede instalarse en dos dispositivos informáticos, uno como servidor y otro como cliente, y la velocidad de comunicación puede probarse enviándose mensajes entre sí a través de iPerf3.
Los parámetros de iPerf3 son los siguientes:
Usage: iperf [-s|-c host] [options] iperf [-h|--ayuda] [-v|--versión]
Servidor o cliente: -p, --puerto # puerto servidor para escuchar/conectar -f, --formato [kmgKMG] formato para informar: Kbits, Mbits, KBytes, MBytes -i, --intervalo # segundos entre informes periódicos de ancho de banda -F, --nombre de archivo xmit/recv el archivo especificado -B, --<host>vincular a una interfaz específica -V, --verbosa salida más detallada -J, --salida json en formato JSON --logfile f enviar la salida a un archivo log -d, --depuración emiten salida de depuración -v, --versión mostrar información de la versión y salir -h, --ayuda a mostrar este mensaje y deja de fumar Específicos del servidor: -s, --servidor ejecutado en modo servidor -D, --demonio gestiona el servidor como daemon -Yo, --archivo pidfile escribe archivo PID -1, --una sola vez maneja una conexión cliente y luego sale Específicos para el cliente: -c, --<host>cliente ejecutado en modo cliente, conectándose a <host> -u, --udp usa UDP en lugar de TCP -b, --ancho de banda #[KMG][/#] ancho de banda objetivo en bits/seg (0 para ilimitado) (por defecto 1 Mbit/seg para UDP, ilimitado para TCP) (barra y conteo de paquetes opcionales para el modo ráfaga) -t, --tiempo # tiempo en segundos para transmitir durante (por defecto 10 segundos) -n, --bytes #[KMG] número de bytes a transmitir (en lugar de -t) -k, --conteo de bloques #[KMG] número de bloques (paquetes) por transmitir (en lugar de -t o -n) -l, --len #[KMG] longitud del búfer para leer o escribir (por defecto 128 KB para TCP, 8 KB para UDP) --<port>cport bind a un puerto cliente específico (TCP y UDP, por defecto: puerto efímero) -P, --paralelo # número de flujos clientes paralelos a ejecutar -R, --ejecución inversa en modo inverso (servidor envia, cliente recibe) -w, --ventana #[KMG] establecer tamaño de ventana / tamaño de búfer de enchufe -M, --set-mss # establecer tamaño máximo de segmento TCP/SCTP (MTU - 40 bytes) -N, --sin retraso TCP/SCTP sin retraso, deshabilitando el algoritmo de Nagle -4, --versión 4 solo usa IPv4 -6, --versión 6 solo usa IPv6 -S, --tos N establecen el 'tipo de servicio' IP -Z, --zerocopy utilizan un método de 'copia cero' para enviar datos -O, --omite N omitir los primeros n segundos -T, --título con el prefijo str en cada línea de salida con esta cadena --get-server-output obtiene resultados del servidor --contadores udp-64 bits utilizan contadores de 64 bits en paquetes de prueba UDP
[KMG] indica opciones que soportan un sufijo K/M/G para kilo-, mega- o giga-
Página principal de IPERF3 en:http://software.es.net/iperf/ Reporta errores a: https://github.com/esnet/iperf Dirección de descarga de la versión de Windows de 64 bits:El inicio de sesión del hipervínculo es visible.
Los servidores LINUX, tomando CentOS como ejemplo, pueden instalar la herramienta iPerf3 usando el comando yum, cuyo comando es el siguiente:
servidor
Con el servidor Linux como lado del servidor, ejecuta el siguiente comando:
cliente
Usando mi ordenador local como lado cliente, ejecuté el siguiente comando:
Comentario:192.168.50.227 es la dirección IP en el lado del servidor
resumen
El registro del servidor muestra que se recibió una solicitud de prueba desde 192.168.50.243, puerto de origen 22376. El lado del cliente realiza una prueba continua durante 10 segundos y muestra el número de bytes transmitidos por segundo y la información de ancho de banda. Las estadísticas enviadas y recibidas se resumen tras completar la prueba. La escucha del puerto 5201 continúa después de cerrar la conexión del cliente.
Conectándose al host 192.168.50.227, puerto 5201 [ 4] Local 192.168.50.243 puerto 22377 conectado a 192.168.50.227 puerto 5201 [ ID] Ancho de banda de transferencia de intervalos [ 4] 0,00-1,00 seg 112 MBytes 943 Mbits/seg [ 4] 1,00-2,00 seg 112 MBytes 940 Mbits/seg [ 4] 2,00-3,00 seg 112 MBytes 941 Mbits/seg [ 4] 3,00-4,00 seg 112 MBytes 940 Mbits/seg [ 4] 4,00-5,00 seg 112 MBytes 941 Mbits/seg [ 4] 5,00-6,00 seg 112 MBytes 941 Mbits/seg [ 4] 6,00-7,00 seg 112 MBytes 942 Mbits/seg [ 4] 7,00-8,00 seg 112 MBytes 941 Mbits/seg [ 4] 8,00-9,00 seg 112 MBytes 942 Mbits/seg [ 4] 9,00-10,00 seg 112 MBytes 942 Mbits/seg - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Ancho de banda de transferencia de intervalos [ 4] 0,00-10,00 seg 1,10 GBytes 941 Mbits/seg emisor [ 4] 0,00-10,00 seg 1,10 GBytes 941 Mbits/seg receptor
iperf Hecho. Tanto el servidor como los dispositivos cliente son Etherports Gigabit, y los routers también son Etherports Gigabit, por lo que un ancho de banda de 941 Mbits/seg es normal.
Máquinas virtuales de prueba bajo ESXI
Ambos son sistemas CentOS, y al router físico se le asigna una dirección IP privada, que se prueba a través de la IP privada de la siguiente manera:
Conectándose al host 192.168.50.227, puerto 5201 [5] Local 192.168.50.131 puerto 35394 conectado a 192.168.50.227 puerto 5201 [ ID] Tasa de Bits de Transferencia Intervalosa Retr Cwnd [5] 0,00-1,00 seg 2,72 GBytes 23,3 Gbits/seg 0 1,39 MBytes [5] 1,00-2,00 seg 2,74 GBytes 23,5 Gbits/seg 0 1,48 MBytes [5] 2,00-3,00 seg 2,60 GBytes 22,3 Gbits/seg 0 1,48 MBytes [ 5] 3,00-4,00 seg 2,58 GBytes 22,2 Gbits/seg 0 1,48 MBytes [5] 4,00-5,00 seg 2,67 GBytes 23,0 Gbits/seg 0 1,48 MBytes [5] 5,00-6,00 seg 2,65 GBytes 22,7 Gbits/seg 0 1,48 MBytes [5] 6,00-7,00 seg 2,67 GBytes 23,0 Gbits/seg 0 1,48 MBytes [5] 7,00-8,00 seg 2,64 GBytes 22,7 Gbits/seg 0 1,48 MBytes [5] 8,00-9,00 seg 2,63 GBytes 22,6 Gbits/seg 0 1,48 MBytes [5] 9,00-10,00 seg 2,67 GBytes 22,9 Gbits/s 0 1,48 MBytes - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Tasa de bits de transferencia de intervalos Retr [ 5] 0,00-10,00 seg 26,6 GBytes 22,8 Gbits/seg 0 emisor [5] 0,00-10,04 seg 26,6 GBytes 22,7 Gbits/seg receptor
iperf Hecho. Esto es un poco anormal, porque soy un router Gigabit y la velocidad de prueba es de 22,7 Gbits/seg, ¿no es a través de una tarjeta de red física?
Información de acceso:https://communities.vmware.com/t ... Routes/ta-p/2783083
VM1 y VM2 están conectados al mismo vSwitch llamado "vSwitch1", al mismo grupo de puertos llamado Producción y también a la misma VLAN llamada VLAN 20, y además ambos están funcionando en el mismo host ESXi llamado ESX1. El tráfico de red entre estas VM (VM1 y VM2) no va a las NICs físicas del host ESXi y estas tramas tampoco se reenvían a la red física como switch y router físicos porque las VM sí lo hacen comunicarse dentro del vSwitch y resulta en lograr una mayor velocidad de red y una menor latencia de red. VM1 y VM2 están conectados al mismo vSwitch llamado "vSwitch1", al mismo grupo de puertos llamado Production y a la misma VLAN llamada VLAN 20, y ambos se ejecutan en el mismo host ESXi llamado ESX1. tráfico de red entre estas máquinas virtuales (VM1 y VM2).No va a la tarjeta de red física del host ESXi, y estos marcos tambiénNo se reenvía a la red física(como switches físicos y routers) porque las máquinas virtuales se comunican dentro del vSwitch, lo que resulta en mayores velocidades de red y menor latencia de red.
Probé el entorno yo mismo.Dos máquinas virtuales están en el mismo host y vSwitch, pero no en el mismo grupo de puertos, parece que no se reenvía ni a la tarjeta física ni a la red física.
|