Denne artikkelen er en speilartikkel om maskinoversettelse, vennligst klikk her for å hoppe til originalartikkelen.

Utsikt: 20628|Svare: 6

[Kilde] Bruk iPerf3 for å teste enhetens nettverkskommunikasjonshastigheter

[Kopier lenke]
Publisert på 06.11.2021 10:59:01 | | | |
iPerf3 er et verktøy for aktivt å måle maksimal båndbredde som er oppnåelig på et IP-nettverk. Den støtter justering av ulike parametere knyttet til timing, buffere og protokoller (TCP, UDP, SCTP med IPv4 og IPv6). For hver test rapporterer den båndbredde, tap og andre parametere. Dette er en ny implementasjon som ikke deler kode med den opprinnelige iPerf og ikke er bakoverkompatibel. iPerf ble opprinnelig utviklet av NLANR/DAST. iPerf3 ble primært utviklet av ESnet/Lawrence Berkeley National Laboratory.

IPRF-familien av verktøy utfører aktive målinger for å bestemme maksimal båndbredde som kan oppnås på et IP-nettverk. Den støtter justering av ulike parametere knyttet til timing, protokoller og buffere. For hver test rapporterer den målt gjennomstrømning, tap og andre parametere.

Denne utgivelsen, noen ganger kalt iperf3, er en redesign av den opprinnelige versjonen utviklet av NLANR / DAST. IPERF3 er en ny implementering fra bunnen av som sikter mot en mindre, enklere kodebase, og en versjon av biblioteket som kan brukes i andre programmer. IPERF3 inkorporerer også funksjoner fra mange andre verktøy som NUTTCP og NetPerf, som mangler i det originale IPERF. Disse inkluderer for eksempel nullkopieringsmodus og valgfri JSON-utgang. Merk at iperf3 ikke er bakoverkompatibel med den opprinnelige iperf.

iPerf3 kan brukes til å teste enhetens nettverkskommunikasjonshastighet, og iPerf3 kan installeres på to dataenheter, én som server og én som klient, og kommunikasjonshastigheten kan testes ved å sende meldinger til hverandre via iPerf3.

iPerf3-parameterne er som følger:

Usage: iperf [-s|-c host] [options]
       iperf [-h|--hjelp] [-v|--versjon]

Server eller klient:
  -p, --port # serverport for å lytte på/koble til
  -f, --format [kmgKMG] format til rapport: Kbits, Mbits, KBytes, MBytes
  -i, --intervall # sekunder mellom periodiske båndbredderapporter
  -F, --filnavn xmit/recv den angitte filen
  -B, --bind <host> bind til et spesifikt grensesnitt
  -V, --formuler mer detaljert utdata
  -J, --json-utdata i JSON-format
  --loggfil f send output til en loggfil
  -d, --debug send ut feilsøkingsutdata
  -v, --versjon vis versjonsinformasjon og avslutt
  -H, --hjelp til å vise denne meldingen og slutt
Serverspesifikk:
  -s, --server kjørt i servermodus
  -D, --daemon kjører serveren som en daemon
  -I, --pidfile-fil skriv PID-fil
  -1, --engangshåndtering av én klientforbindelse og så avslutt
Kundespesifikt:
  -c, --klient <host> kjøres i klientmodus, kobler til <host>
  -u, --udp bruker UDP i stedet for TCP
  -b, --båndbredde #[KMG][/#] målbåndbredde i bits/sek (0 for ubegrenset)
                            (standard 1 Mbit/s for UDP, ubegrenset for TCP)
                            (valgfri slash og pakketall for burst-modus)
  -t, --tid # tid i sekunder for å sende for (standard 10 sekunder)
  -n, --bytes #[KMG] antall bytes som skal sendes (i stedet for -t)
  -k, --blokkantall #[KMG] antall blokker (pakker) som skal sendes (i stedet for -t eller -n)
  -l, --len #[KMG] bufferlengde for å lese eller skrive
                            (standard 128 KB for TCP, 8 KB for UDP)
  --cport <port> binder til en spesifikk klientport (TCP og UDP, standard: kortvarig port)
  -P, --parallell # antall parallelle klientstrømmer som skal kjøres
  -R, --reverskjøring i reversmodus (server sender, klient mottar)
  -w, --vindu #[KMG] sett vindusstørrelse / socket-bufferstørrelse
  -M, --set-mss # sett TCP/SCTP maksimal segmentstørrelse (MTU - 40 byte)
  -N, --ingen forsinkelse sett TCP/SCTP uten forsinkelse, deaktiverer Nagles algoritme
  -4, --versjon4 bruker kun IPv4
  -6, --versjon6 bruker kun IPv6
  -S, --tos N setter IP-en 'type tjeneste'
  -Z, --nullkopi bruker en 'nullkopi'-metode for å sende data
  -O, --utelat N utelat de første n sekundene
  -T, --tittel str prefikser hver utgangslinje med denne strengen
  --get-server-output hent resultater fra server
  --udp-tellere-64bit bruker 64-bits tellere i UDP-testpakker

[KMG] indikerer alternativer som støtter et K/M/G-suffiks for kilo-, mega- eller giga-

IPERF3 Hjemmeside på:http://software.es.net/iperf/
Rapporter feil til:     https://github.com/esnet/iperf
Windows 64-bits nedlastingsadresse:Innloggingen med hyperkoblingen er synlig.



LINUX-servere, med CentOS som eksempel, kan installere iPerf3-verktøyet ved å bruke kommandoen yum, kommandoen er som følger:

server

Med Linux-serveren som serverside, utfør følgende kommando:



klient

Ved å bruke min lokale datamaskin som klientside, utførte jeg følgende kommando:

Bemerkning:192.168.50.227 er IP-adressen på Server-siden



sammendrag

Serverloggen viser at en testforespørsel ble mottatt fra 192.168.50.243, kildeport 22376. Klientsiden gjennomfører en kontinuerlig test i 10 sekunder, og viser antall byte som sendes per sekund og båndbreddeinformasjon. Statistikk som sendes og mottas oppsummeres etter at testen er fullført. Lytting etter port 5201 fortsetter etter at klientforbindelsen er lukket.

Kobler til vert 192.168.50.227, port 5201
[ 4] lokal 192.168.50.243 port 22377 koblet til 192.168.50.227 port 5201
[ID] Intervalloverføringsbåndbredde
[ 4] 0,00-1,00 sek 112 MBytes 943 Mbit/s
[ 4] 1,00-2,00 sek 112 MBytes 940 Mbit/s
[ 4] 2,00-3,00 sek 112 MBytes 941 Mbit/s
[ 4] 3,00-4,00 sek 112 MBytes 940 Mbit/s
[ 4] 4,00-5,00 sek 112 MBytes 941 Mbit/s
[ 4] 5.00-6.00 sek 112 MBytes 941 Mbit/s
[ 4] 6,00-7,00 sek 112 MBytes 942 Mbit/s
[ 4] 7.00-8.00 sek 112 MBytes 941 Mbit/s
[ 4] 8.00-9.00 sek 112 MBytes 942 Mbit/s
[ 4] 9.00-10.00 sek 112 MBytes 942 Mbit/s
- - - - - - - - - - - - - - - - - - - - - - - - -
[ID] Intervalloverføringsbåndbredde
[ 4] 0,00-10,00 sek 1,10 GBytes 941 Mbit/s sender
[4] 0,00-10,00 sek 1,10 GBytes 941 Mbit/s mottaker

iperf Ferdig.
Både server- og klientenheter er Gigabit Etherports, og ruterne er også Gigabit Etherports, så båndbredde på 941 Mbit/s er normalt.

Test virtuelle maskiner under ESXI

Begge er CentOS-systemer, og den fysiske ruteren tildeles en privat IP-adresse, som testes gjennom den private IP-en som følger:



Kobler til vert 192.168.50.227, port 5201
[ 5] lokal 192.168.50.131 port 35394 koblet til 192.168.50.227 port 5201
[ID] Intervalloverføring Bitrate Retr cwnd
[ 5] 0,00-1,00 sek 2,72 GBytes 23,3 Gbit/sek 0 1,39 MBytes      
[ 5] 1,00-2,00 sek 2,74 GBytes 23,5 Gbit/sek 0 1,48 MBytes      
[ 5] 2,00-3,00 sek 2,60 GBytes 22,3 Gbit/sek 0 1,48 MBytes      
[ 5] 3,00-4,00 sek 2,58 GBytes 22,2 Gbit/sek 0 1,48 MBytes      
[ 5] 4.00-5.00 sek 2.67 GBytes 23.0 Gbit/sek 0 1.48 MBytes      
[ 5] 5,00-6,00 sek 2,65 GBytes 22,7 Gbit/sek 0 1,48 MBytes      
[ 5] 6,00-7,00 sek 2,67 GBytes 23,0 Gbit/sek 0 1,48 MBytes      
[ 5] 7,00-8,00 sek 2,64 GBytes 22,7 Gbit/sek 0 1,48 MBytes      
[ 5] 8,00-9,00 sek 2,63 GBytes 22,6 Gbit/sek 0 1,48 MBytes      
[ 5] 9,00-10,00 sek 2,67 GBytes 22,9 Gbit/sek 0 1,48 MBytes      
- - - - - - - - - - - - - - - - - - - - - - - - -
[ID] Intervalloverføring Bitrate Retr
[ 5] 0,00-10,00 sek 26,6 GBytes 22,8 Gbit/sek 0 sender
[ 5] 0,00-10,04 sek 26,6 GBytes 22,7 Gbit/sek mottaker

iperf Ferdig.
Dette er litt unormalt, fordi jeg er en Gigabit-ruter, og testhastigheten er 22,7 Gbit/s, er det ikke via et fysisk nettverkskort?

Tilgang til informasjon:https://communities.vmware.com/t ... Routes/ta-p/2783083

VM1 og VM2 er koblet til samme vSwitch kalt "vSwitch1", samme portgruppe kalt Production og også samme VLAN kalt VLAN 20, og begge kjører i samme ESXi-vert kalt ESX1. Nettverkstrafikk mellom disse VM-ene (VM1 og VM2) går ikke til fysiske nettverkskort på ESXi-verten, og disse rammene videresendes heller ikke til fysisk nettverk som fysisk switch og ruter, fordi VM-er vil gjøre det kommunisere innenfor vSwitchen og resulterer i økt nettverkshastighet og lavere nettverksforsinkelse.
VM1 og VM2 er koblet til samme vSwitch kalt "vSwitch1", samme portgruppe kalt Production, og samme VLAN kalt VLAN 20, og begge kjører i samme ESXi-vert kalt ESX1. Nettverkstrafikk mellom disse VM-ene (VM1 og VM2).Går ikke til det fysiske nettverkskortet på ESXi-verten, og disse rammene ogsåDen blir ikke videresendt til det fysiske nettverket(som fysiske svitsjer og rutere) fordi VM-er kommuniserer inne i vSwitchen, noe som resulterer i høyere nettverkshastigheter og mindre nettverksforsinkelse.

Jeg testet miljøet selv.To VM-er er på samme vert og vSwitch, men ikke på samme portgruppe, det ser ut til at det ikke blir videresendt til det fysiske nettverkskortet og det fysiske nettverket.





Foregående:Bruk Pandoc for å konvertere Markdown til Word-dokumenter i bulk under Windows
Neste:Praktisk drift: AOP i Spring Boot endrer dynamisk parameterverdien for forespørsel
 Vert| Publisert på 06.11.2021 11:15:38 |
 Vert| Publisert på 29.05.2022 18:33:58 |
[Praktisk kamp] Serveren bygger LibreSpeed for å teste nettverkshastigheten
https://www.itsvse.com/thread-10319-1-1.html
 Vert| Publisert på 14.10.2023 11:55:41 |
Ubuntu install iperf3-kommando:



Samtidig kan du legge til --debug for å starte debug-utdata
 Vert| Publisert på 05.08.2024 08:40:17 |
 Vert| Publisert på 03.09.2025 20:22:11 |
 Vert| Publisert på 30.10.2025 17:42:38 |
iPerf3 tilpassede porter

server

klient
Ansvarsfraskrivelse:
All programvare, programmeringsmateriell eller artikler publisert av Code Farmer Network er kun for lærings- og forskningsformål; Innholdet ovenfor skal ikke brukes til kommersielle eller ulovlige formål, ellers skal brukerne bære alle konsekvenser. Informasjonen på dette nettstedet kommer fra Internett, og opphavsrettstvister har ingenting med dette nettstedet å gjøre. Du må fullstendig slette innholdet ovenfor fra datamaskinen din innen 24 timer etter nedlasting. Hvis du liker programmet, vennligst støtt ekte programvare, kjøp registrering, og få bedre ekte tjenester. Hvis det foreligger noen krenkelse, vennligst kontakt oss på e-post.

Mail To:help@itsvse.com