iPerf3 — это инструмент для активного измерения максимальной пропускной способности, достижимой в IP-сети. Он поддерживает регулировку различных параметров, связанных с таймингом, буферами и протоколами (TCP, UDP, SCTP с IPv4 и IPv6). Для каждого теста он отражает пропускную способность, потери и другие параметры. Это новая реализация, которая не использует общий код с оригинальным iPerf и не совместима с обратной системой. iPerf изначально был разработан компанией NLANR/DAST. iPerf3 был в первую очередь разработан Национальной лабораторией ESnet/Лоуренса Беркли.
Семейство инструментов iperf проводит активные измерения для определения максимальной пропускной способности, достижимой в IP-сети. Он поддерживает регулировку различных параметров, связанных с таймингом, протоколами и буферами. Для каждого теста он отражает измеренную пропускную способность, потери и другие параметры.
Этот релиз, иногда называемый iperf3, является переработкой оригинальной версии, разработанной NLANR / DAST. iPerf3 — это новая реализация с нуля, направленная на меньшую, более простую кодовую базу и версию библиотеки, которую можно использовать в других программах. iPerf3 также включает функции многих других инструментов, таких как Nuttcp и NetPerf, которые отсутствуют в оригинальном iPerf. К ним относятся, например, режим нулевой копирования и опциональный вывод JSON. Обратите внимание, что iperf3 не совместим обратно с оригинальным iperf.
iPerf3 можно использовать для тестирования скорости сетевой связи устройства, а iPerf3 можно установить на два компьютерных устройства — одно в качестве сервера, другое как клиентское, а скорость связи можно проверять, отправляя сообщения друг другу через iPerf3.
Параметры iPerf3 следующие:
Usage: iperf [-s|-c host] [options] iperf [-h|--help] [-v|--версия]
Сервер или клиент: -p, --порт # Порт сервера для прослушивания/подключения -f, --format [kmgKMG] формат для отчета: Kbits, Mbits, KBytes, MBytes -i, --интервал # секунды между периодическими отчётами о пропускающей способности -F, --имя файла xmit/recv указанного файла -B, --<host>привязка к конкретному интерфейсу -V, --многословный более подробный вывод -J, --json вывод в формате JSON --logfile f отправить вывод в лог-файл -d, --debug emit debugging output -v, --версия показывает информацию о версии и выходит -Х, --помоги показать это сообщение и уйти Специфично для сервера: -s, --сервер запущен в серверном режиме -Д, --демон запускает сервер как демон -Я, --файл pidfile write PID-файл -1, --одноразовое управление одним клиентским соединением, затем выход Для конкретного клиента: -c, --клиент <host> работает в клиентском режиме, подключается к <host> -u, --udp используют UDP вместо TCP -b, --полоса пропускания #[KMG][/#] целевая пропускная способность в битах в секунду (0 для неограниченного) (по умолчанию 1 Мбит/сек для UDP, неограниченное для TCP) (опциональное количество слэша и пакетов для режима серии) -t, --время # время в секундах для передачи (по умолчанию 10 секунд) -n, --байты #[KMG] количество байт для передачи (вместо -t) -k, --количество блоков #[KMG] количество блоков (пакетов) для передачи (вместо -t или -n) -l, --len #[KMG] длина буфера для чтения или записи (по умолчанию 128 КБ для TCP, 8 КБ для UDP) --cport <port> привязывается к конкретному клиентскому порту (TCP и UDP, по умолчанию: эфемерный порт) -P, --параллель # количество параллельных клиентских потоков для запуска -R, --обратный запуск в обратном режиме (сервер отправляет, клиент получает) -w, --окно #[KMG] установка размера окна / размера буфера сокета -M, --set-mss # установка максимального размера сегмента TCP/SCTP (MTU - 40 байт) -N, --no-delay set TCP/SCTP no delay, отключая алгоритм Нейгла -4, --версия 4 использует только IPv4 -6, --версия 6 использует только IPv6 -S, --tos N устанавливает IP 'тип сервиса' -Z, --zerocopy используйте метод «нулевой копирования» для отправки данных -О, --опусти N опусти первые n секунд -T, --title str префикс каждой выходной строки с этой строкой --get-server-output получите результаты с сервера --udp-counters-64bit используют 64-битные счётчики в тестовых пакетах UDP
[KMG] указывает на опции, поддерживающие суффиксы K/M/G для кило-, мега- или гига-
Главная страница iperf3 по адресу:http://software.es.net/iperf/ Сообщите об ошибках на: https://github.com/esnet/iperf Адрес для загрузки 64-битной версии Windows:Вход по гиперссылке виден.
Серверы LINUX, взяв пример CentOS, могут установить инструмент iPerf3 с помощью команды yum, команда звучит следующим образом:
сервер
С сервером Linux в качестве сервера выполните следующую команду:
клиент
Используя свой локальный компьютер как клиентскую сторону, я выполнил следующую команду:
Замечание:192.168.50.227 — IP-адрес на стороне Sever
сводка
Журнал сервера показывает, что тестовый запрос был получен от 192.168.50.243, исходный порт 22376. Клиентская сторона проводит непрерывное тестирование в течение 10 секунд и отображает количество передаваемых байт в секунду и информацию о пропускной способности. Отправленная и полученная статистика обобщается после завершения теста. Прослушивание порта 5201 продолжается после закрытия клиентского соединения.
Подключение к хосту 192.168.50.227, порт 5201 [ 4] Местный порт 192.168.50.243 22377 подключён к порту 192.168.50.227, порт 5201 [ ID] Пропускная способность интервальной передачи [4] 0.00-1.00 сек 112 Мбайт/с 943 Мбит/сек [4] 1.00-2.00 сек 112 МБбайт 940 Мбит/сек [4] 2.00-3.00 сек 112 МБбайт 941 Мбит/сек [4] 3.00-4.00 сек 112 МБбайт 940 Мбит/сек [4] 4.00-5.00 сек 112 Мбайт 941 Мбит/сек [4] 5.00-6.00 сек 112 Мбайт/с 941 Мбит/сек [4] 6.00-7.00 сек 112 МБбайт 942 Мбит/сек [4] 7.00-8.00 сек 112 МБбайт 941 Мбит/сек [4] 8.00-9.00 сек 112 Мбайт/с 942 Мбит/сек [4] 9.00-10.00 сек 112 МБбайт 942 Мбит/сек - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Пропускная способность интервальной передачи [4] 0.00-10.00 сек 1.10 ГБайт 941 Мбит/сек отправитель [4] Приёмник 0.00-10.00 сек 1.10 ГБайт 941 Мбит/сек
iperf Готово. И серверные, и клиентские устройства — гигабитные Etherports, а роутеры тоже гигабитные, поэтому пропускная способность 941 Мбит/с — это нормально.
Виртуальные машины тестирования в ESXI
Оба являются системами CentOS, и физическому маршрутизатору присваивается приватный IP-адрес, который проверяется через приватный IP следующим образом:
Подключение к хосту 192.168.50.227, порт 5201 [ 5] Локальный порт 192.168.50.131 35394 подключён к порту 192.168.50.227 порт 5201 [ ID] Интервальная передача битрейта Retr cwnd [ 5] 0,00-1,00 сек 2,72 ГБайт 23,3 Гбит/сек 0 1,39 МБайт [ 5] 1,00-2,00 сек 2,74 ГБайта 23,5 Гбит/сек 0 1,48 МБайт [5] 2.00-3.00 сек 2.60 ГБайт 22.3 Гбит/сек 0 1.48 МБайт [ 5] 3.00-4.00 сек 2.58 ГБайта 22.2 Гбит/сек 0 1.48 МБайт [ 5] 4.00-5.00 сек 2.67 ГБайт 23.0 Гбит/сек 0 1.48 МБайт [ 5] 5.00-6.00 сек 2.65 ГБайт 22.7 Гбит/сек 0 1.48 МБайт [5] 6.00-7.00 сек 2.67 ГБайт 23.0 Гбит/сек 0 1.48 МБайт [5] 7.00-8.00 сек 2.64 ГБайта 22.7 Гбит/сек 0 1.48 МБбайт [ 5] 8.00-9.00 сек 2.63 ГБайт 22.6 Гбит/сек 0 1.48 МБайт [ 5] 9.00-10.00 сек 2.67 ГБайт 22.9 Гбит/сек 0 1.48 МБайт - - - - - - - - - - - - - - - - - - - - - - - - - [ ID] Интервальная передача битрейта Retr [ 5] 0,00-10,00 сек 26,6 ГБайта 22,8 Гбит/сек 0 отправитель [ 5] 0,00-10,04 сек. 26,6 ГБайт, приёмник 22,7 Гбит/сек
iperf Готово. Это немного ненормально, потому что я гигабитный роутер, и тестовая скорость — 22,7 Гбит/с, разве это не через физическую сетевую карту?
Информация о доступе:https://communities.vmware.com/t ... Routes/ta-p/2783083
VM1 и VM2 подключены к одному и тому же vSwitch, который называется «vSwitch1», с одной и той же группой портов под названием Production, и к тому же VLAN VLAN 20, и оба работают на одном ESXi-хосте ESX1. Сетевой трафик между этими виртуальными машинами (VM1 и VM2) не идёт на физические сетевые карты на ESXi-хосте, и эти кадры также не пересылаются в физическую сеть, такую как физический коммутатор и маршрутизатор, потому что виртуальные машины это делают взаимодействует внутри vSwitch и приводит к повышению скорости сети и меньшей сетевой задержке. VM1 и VM2 подключены к одному и тому же vSwitch с названием «vSwitch1», с той же группой портов под названием Production и с одним VLAN VLAN 20, и оба работают в одном ESXi-хосте с названием ESX1. Сетевой трафик между этими виртуальными машинами (VM1 и VM2).Не идёт на физическую сетевую карту на хосте ESXi, и эти кадры такжеОн не пересылается в физическую сеть(например, физические коммутаторы и маршрутизаторы), потому что виртуальные машины будут взаимодействовать внутри vSwitch, что приводит к более высокой скорости сети и меньшей сетевой задержке.
Я сам проверил окружающую среду.Две виртуальные машины находятся на одном хосте и vSwitch, но не на одной и той же группе портов, похоже, что он не пересылается на физическую сетевую карту и на физическую сеть.
|