Introduksjon til IBM X-Series Server Enterprise Architecture Technology IBM Enterprise Type X Architecture (EXA) funksjoner og fordeler: IBM Enterprise X-Architecture viser hvordan en smart gjennomtenkt tilnærming til evolusjon kan skape innovative funksjoner. Enterprise Type X-arkitekturen bruker tre industristandard serverteknologikomponenter – prosessor, minne og I/O – og er ytterligere forbedret med avanserte funksjoner designet for å løfte standardsystemer til neste nivå.
Enterprise Type X-arkitekturen bringer funksjoner til industriens standardservere som tidligere kun var tilgjengelige for stordatamaskin- og andre avanserte systembrukere. Disse nye funksjonene, kombinert med eksisterende X-type arkitekturteknologier, skaper revolusjonerende skalerbarhet, økonomi, enestående fleksibilitet og nye nivåer av tilgjengelighet og ytelse. Nøkkelfunksjoner som gleder kundene ved å forenkle administrasjonen, redusere kostnader og forbedre tilgjengeligheten inkluderer: o XpandOnDemand-skalerbarhet, systemsegmentering, PCI–X I/O-delsystem, Active PCI–X o I/O o Memory ProteXion - Chipkill-minne - Minnespeiling - Hot-added/hot-swappable minne (kommer snart) o XceL4 server accelerator cache
I det følgende innholdet vil vi introdusere i detalj de fire aspektene ved serverskalerbarhet: L4-cache, minneteknologi og I/O.
Enterprise X-type arkitektur: XpandOnDemand Takket være sitt fleksible modulære design skaper Enterprise X-arkitekturen en revolusjonerende ny økonomi for servere: kundene trenger ikke lenger å kjøpe så mange servere som mulig på forhånd for å sikre fremtidig kapasitetsvekst. Du kan betale etter hvert som du vokser. Vi kaller dette innovativ XpandOnDemand-skalerbarhet.
Enterprise X-type arkitekturteknologi bruker en forbedret, høyytelses 4-veis SMP-standard byggestein kalt SMP-utvidelsesmodul. Ved å bruke disse 4-veis modulene som skalerbare bedriftsnoder, muliggjør IBM SMP-utvidelsesmoduler effektiv utvidelse fra 4-veis til 8-veis til 12-veis — og til og med 32-veis systemer, som kobles sammen via en enkelt høyhastighets SMP-ekspansjonsport. Derfor, hvis kunden etter hvert trenger mer prosesseringskapasitet, kan en ekstra 4-spors modul legges til for å lage en 8-soklers server kombinert med enkel ledningsføring. Hvis disse 8-soklers serverne ikke tilbyr nok spor og plasser, kan de ytterligere øke I/O-plassens kapasitet ved å koble til eksterne eksterne I/O-utvidelsesenheter (beskrevet senere) og eksterne lagringsenheter som IBM EXP500.
SMP-utvidelsesmoduler for Enterprise Type X-arkitektur inkluderer prosessorer, minne, I/O-støtte, cache, lagring og andre enheter som kan kjøres separat som andre servere. Hver modul kan kjøre et operativsystem som er forskjellig fra de andre, eller flere moduler kan tildeles en operativsystemversjon gjennom systemsegmentering om nødvendig. Med systemsegmentering kan et system konfigureres som et minnesystem som deler 16–prosessorer, eller deles opp i flere segmenter. Til syvende og sist, når alle EXA-funksjoner støttes, er et segment like lite som en prosessor.
Moduler er koblet til hverandre via dedikerte høyhastighets tilkoblingsenheter kalt SMP-utvidelsesporter, som deler ressurser for nesten lineær skalerbarhet, slik at brukere kan tilpasse seg for å kjøre flere noder som en stor konglomeratenhet, eller som to eller flere mindre enheter – eller til og med omorganisere konfigurasjonen senere etter behov.
EXA-teknologi gir også tilgang mellom alle prosessorer og alt minne, uavhengig av deres respektive noder, noe som reduserer tilkoblingen. Med hver ekstra node kan du også legge til brikkesett, front-end-busser, PCI-busser og andre ressurser for å dele datatrafikk. Flere noder gir mer systembåndbredde. Tenk deg konfliktene og ressursproblemene du møter i et tradisjonelt 16- eller 32-veis SMP-system.
På samme måte er det å støtte en klynge av servere koblet via failover like enkelt som å koble to, tre eller fire fireveis noder. Du kan bruke samme systemutvidelsesportruting mellom noder for klyngesammenkobling. For skalerbare klynger kan en høyhastighets sammenkobling opprettes uten et komplekst Ethernet-oppsett, da det allerede finnes via SMP-utvidelsesporter. I tillegg er Ethernet PCI–X-sporet åpent for annen I/O.
SMP-utvidelsesmodulteknologi: XceL4 Server Accelerator Cache En avansert funksjon støttet av Enterprise Type X Architecture (EXA) er en massiv Level 4 (XceL4 Server Accelerator Cache) systemcache som sikrer korrekt funksjon av SMP-utvidelsesmodulens minneytelsesteknologi, med 64 MB 400 MHz DDR (Double Data Transfer Rate) høyhastighets ECC-minne per SMP-utvidelsesmodul i Itanium-baserte servere sammenlignet med 32 MB i Xeon-systemer.
Ved å bruke høyhastighets DDR-minne mellom prosessoren og hovedminnet kan XceL4-cachen i stor grad forbedre ytelsen til prosessoren og I/O-enhetene. Hvor mye har ytelsen blitt forbedret? I en bransje hvor leverandører har en ytelsesfordel på mer enn 2 % over konkurrentene, kan XceL4-caching øke gjennomstrømningen på alle servere med opptil 15 % til 20 %.
Intel 32- og 64-bits prosessorer inneholder relativt liten skala (128 K til 4 MB, avhengig av prosessor) med nivå 1, nivå 2, og (ved bruk av Itanium) innebygd nivå 3 cache-minne. Mengden innebygd cache er begrenset av plassen som er tilgjengelig inne i prosessormodulen. Jo større cacheminne, desto oftere vil prosessoren lete etter dataene den trenger, og desto mindre trenger den å få tilgang til tregere hovedminne. (Prosessorhastigheten øker mye raskere enn hovedminnet; Antall ganger hovedminnet må nås øker hvert år. )
Stor minnekapasitet Aktivt minne er et gjennombrudd innen masseminneteknologien til X-type arkitekturer for bedrifter, designet for å øke kapasitet, ytelse og pålitelighet. En slik teknologi er evnen til å støtte store minnekapasiteter.
Mens noen servere fortsatt er begrenset av antall minneplasser de kan installere, er andre begrenset av det maksimale minnet som brikkesettet serveren bruker kan støtte. Av disse grunnene har de fleste servere en minnegrense på 16 GB RAM eller mindre. Enterprise Type X-arkitekturen bryter denne barrieren, og tillater opptil 256 GB RAM (64 GB i en server basert på en 32-bits Intel Xeon MP-prosessor) i en server basert på en 64-bits Itanium-basert server.
MinneproteXion MinneproteXion hjelper til med å beskytte mot plutselige feil forårsaket av harde minnefeil. Det fungerer noe likt som hot spare disksektorer i Windows NTFS-filsystemet, og hvis operativsystemet oppdager dårlige sektorer på disken, vil det skrive data til reservesektoren for dette formålet. MinneproteXion (også kjent som redundant bittuning på andre systemer) ble opprinnelig utviklet for IBM-stormaskiner og har vært brukt i mange år på zSeries- og iSeries-servere.
Servere beskyttet av minneproteXion har nesten 200 ganger mindre sannsynlighet for å feile enn en server som bruker standard ECC-minne. ECC (Error Detection and Correction) DIMM inneholder 144 biter, men kun 140 biter brukes til data, og de resterende fire bitene er ubrukte. Minne-ProteXion omskriver ganske enkelt data til noen av disse ledige bitene, i stedet for raskt å deaktivere DIMM-er. Denne tilnærmingen gjør det mulig for Memory ProteXion å korrigere fire påfølgende bitfeil per DIMM—åtte påfølgende bitfeil per minnekontroller (en server kan ha flere kontrollere). Denne avanserte teknologien kan bidra til å redusere servernedetid, noe som resulterer i en mer robust klient-server-dataplattform. Dette er spesielt viktig i store databasemiljøer, hvor transaksjoner/tilbakerullinger, re-indeksering og datasynkronisering mellom servere kan føre til timer med tap før en krasjet database er oppe og går igjen. Hvis en minnekontroller kjører utenfor standby-biten, fungerer den fortsatt som en andre forsvarslinje for Chipkill-minne.
Chipkill ECC-minne (nå tredje generasjon av industriens standarddatamaskiner) fungerer bare når en server får så mange feil på kort tid at Memory ProteXion ikke kan løse det.
Minnespeiling Den tredje forsvarslinjen mot servernedetid på grunn av minnefeil er minnespeiling. I denne teknologien administreres minnet på en svært lik måte som diskspeiling i en RAID-konfigurasjon. I dette tilfellet speiles den eksakte kartleggingen av dataene på hovedminnepinnen til reserve- eller backup-minnemodulen. Resultatet er at hvis én minnepinne svikter, blir den speilede minnepinnen hovedminnepinnen. Etter å ha byttet ut den defekte minnepinnen, speiles dataene i hovedminnepinnen til den nye minnepinnen.
PCI–X I/O-system og Active PCI–X De nyeste PC I/O-bussene tillater flere 64-bits 66 MHz PCI-busssegmenter, som støtter 400 til 500 MBps per segment. Denne båndbredden er ikke nok til å støtte fremvoksende I/O-miljøer på 10 Gbps (gigabyte per sekund)—eller høyere.
Uten andre ytelsesforbedringer vil PCI raskt bli en flaskehals som hindrer disse høyhastighetsnettverkene i å koble til servere med maksimal nettverkshastighet. I/O-flaskehalser har hindret industristandardservere i å bli en balansert systemarkitektur, en egenskap ved høyhastighets Intel-baserte servere og stordatasystemer. For å løse disse ytelsesproblemene har industrien derfor utviklet en forbedret buss kalt PCI–X, som er designet for å forlenge levetiden til PCI inntil neste generasjons serielle I/O-arkitekturer som InfiniBand er klare.
PCI–X gjør at alle nåværende 32-bits og 64-bits 66 MHz PCI-adaptere fungerer korrekt på PCI–X-bussen. PCI–X-adapteren utnytter fullt ut de nye 100 MHz og 133 MHz busshastighetene, som gjør det mulig for en enkelt 64-bits adapter å levere opptil 1 gigabyte data per sekund. I tillegg støtter PCI–X dobbelt så mange PCI 66 MHz 64-bits adaptere i én buss.
Active PCI–X lar deg legge til eller erstatte kort støttet av Active PCI og Active PCI–X uten å stenge serveren. De aktive PCI–X-funksjonene som er utformet for å forbedre den totale servertilgjengeligheten, er kategorisert som følger: Hot-swappable lar deg bytte ut en defekt eller kommende adapter uten å starte på nytt Hot Add gir enkle oppgraderinger som lar deg legge til nye adaptere mens serveren er i drift (IBM var først i bransjen til å tilby denne funksjonen) Failover gjør at backup-adapteren kan være ansvarlig for å kjøre alle tjenestene som behandles ved en primæradapterfeil
Tekniske spørsmål om 8658-51Y 5100X230-serveren: 1.8658 11Y----21Y—61Y-6RY og andre NF 5100/X230 hovedkort er alle like, denne typen server IBM skyldes Det er et problem med produksjonsdesignet, og VRM-feilen i CPU-første slot, som vil brenne CPU og hovedkort i alvorlige tilfeller. 2. For å løse dette problemet fikk IBM senere et 5100-forbedret kort kalt FRU: 59P5869 Du kan ikke brenne CPU-VRM-en, altså den første plassen i CPU-en, du kan laste CPU-en normalt: Noen store kunder er IBM Send Basket Fast Ingeniøren byttet hovedkortet med det FRU:59P5869 forbedrede kortet. 3. Det finnes en annen måte: Lankuais ingeniørmetode (praktisert) for å flytte CPU-en til den andre CPU-plassen Legg til et VRM CPU-terminalkort fra den opprinnelige andre CPU-sporet til den første plassen på CPU-en, og så videre Det unngår tapet av å brenne den første CPU-en. Det vil si at serveren bare kan gå opp til én CPU Den andre CPU-plassen. Dette passer til FRU: 09N7844 06P6165 25P3289, altså ikke-modifiserte skilt. 4. Dette er også grunnen til at IBM 5100/X230 er utsatt for problemer, men det finnes også en løsning. Så en god CPU bør aldri gå til den første plassen i CPU-en. Detaljert forklaring av Ipssend-kommandoen og konfigurasjonsmetoden Ipssend er et verktøy for å konfigurere arrays på kommandolinjen, selve kommandofilen er veldig liten og lett å laste ned fra Internett, noe som kan løse problemet med at noen brukere mister server raid, server guide-disker og ikke kan laste ned omtrent 500 Mb med disk-iso-bildefiler fra Internett.
Hovedkommandoer:
1.create - Funksjonen til denne kommandoen er å lage en logisk disk oppå et eksisterende array eller et nytt array. Merk: Denne kommandoen kan ikke opprette en logisk disk for RAID nivå-x0. Kommandoformat: IPSSEND CREATE-kontroller LOGICALDRIVE NEWARRAY/ARRAYID størrelse raidlevel {channel sid}
l-kontrolleren refererer til ID-nummeret til RAID-kontrolleren (1-12) l NEWARRAY betyr å lage et nytt array (hvis du ikke vil lage et nytt array, kan du utelate det) L-størrelse og raidnivå er nivåene for størrelsen og arrayet av logiske disker som skal opprettes, henholdsvis Eksempel: (Standard kontroller er 1, harddisk-id starter fra 0, logisk diskstørrelse er 100Mb) 1. En harddisk gjør raid 0: ipssend oppretter 1 logisk disk newarray 100 0 1 0. Den siste 1 0 refererer til den tilsvarende {channel sid} 2. Gjør raid 0 på to harddisker: ipssend oppretter 1 logisk disk newarray 100 0 1 0 1 1. Den siste 1 0 1 1 refererer til den tilsvarende {kanalsiden} 3. To harddisker gjør RAID 1: ipssend create 1 logicaldrive newarray 100 1 1 0 1 1. Den siste 1 0 1 1 refererer til den tilsvarende {kanalsiden} 4. Tre harddisker gjør RAID 5: ipssend oppretter 1 logisk disk newarray 100 5 1 0 1 1 1 2. Den siste 1 0 1 1 1 1 2 refererer til den tilsvarende {channel sid}-kommandoen som definerer dette newarray som array a. 5. Hvis du vil lage en annen logicaldrive-inputkommando basert på eksempel 4: ipssend create 1 logisk drive a 100 5 1 0 1 1 1 1 1 2. Den siste 1 0 1 1 1 1 2 refererer til den tilsvarende {kanal SID}
2.delete - Denne kommandoen sletter et array som allerede eksisterer. Samtidig vil dataene på den logiske disken gå tapt. Merk: Denne kommandoen kan ikke slette den logiske disken til RAID nivå-x0 Kommandoformat: IPSSEND DELETE-kontroller-ARRAY arrayet l-kontrolleren refererer til ID-nummeret til RAID-kontrolleren (1-12) l arrayID er arrayet som eksisterer (A-H) Eksempel: (Forutsatt at kontrolleren er 1 og arrayID er a) ipssend delete 1 array a
3. devinfo – Denne kommandoen viser status og størrelse på den fysiske disken. Kommandoformat: IPSSEND DEVINFO-kontrollerkanal side l-kontrolleren refererer til ID-nummeret til RAID-kontrolleren (1-12) l-kanal refererer til SCSI-kanal (1-4) l SID refererer til SCSI ID-nummer (0-15)
For eksempel: ipssend devinfo 1 1 0
Den vises som følger: Fant 1 IBM ServeRAID-kontroller(er). Enhetsinformasjon er initiert for kontroller 1... Enheten er en harddisk Kanal : 1 SCSI ID: 0 PFA (Ja/Nei): Nei Tilstand: Klar (RDY) Størrelse (i MB)/(i sektorer): 34715/71096368 Enhets-ID: IBM-ESXSST336732B84G3ET0YAHS FRU delenummer: 06P5778 Kommandoen fullført med suksess.
4. drivever - Denne kommandoen viser leverandør-ID, fastvareversjon og serienummer på den fysiske disken. Kommandoformat: IPSSEND DRIVEVER kontrollerkanal side l-kontrolleren refererer til ID-nummeret til RAID-kontrolleren (1-12) l-kanal refererer til SCSI-kanal (1-4) l SID refererer til SCSI ID-nummer (0-15)
Ipssend drivever 1 1 0 Den vises som følger: Fant 1 IBM ServeRAID-kontroller(er). SCSI-undersøkelse DCDB er igangsatt for kontroller 1... Enhetstype: Harddisk Kanal : 1 SCSI ID: 0 Leverandør: IBM-ESXS Revisjonsnivå: B84G Serienummer: 3ET0YAHS Kommandoen fullført med suksess.
5. getconfig - Denne kommandoen viser informasjon om kontrolleren, logisk disk og fysisk Kommandoformat: IPSSEND GETCONFIG-kontroller AD/LD/PD/AL Kontroller refererer til ID-nummeret til RAID-kontrolleren (1-12) l AD viser kontrollerinformasjon l LD viser informasjon om logiske disker l PD viser informasjon om fysiske enheter l AL viser all informasjonen ovenfor Eksempel: (Standard kontroller er 1) Ipssend GetConfig 1 AL
6. setconfig - Denne kommandoen endrer konfigurasjonen av kontrolleren, for eksempel ved å gjenoppta standardverdien og kopiere array-informasjonen fra harddisken Kommandoformat: IPSSEND SETCONFIG-kontroller DEFAULT/IMPORTDRIVE Eksempel: Tilbakestill en kontroller til en utgangsinnstilling: ipssend setconfig 1 standard Kopier arrayinformasjon fra harddisk: ipssend setconfig 1 importdrive
7.scandrives – skanner alle harddisker på kontrolleren Kommandoformat: IPSSEND SCANDRIVES-kontroller l-kontrolleren refererer til ID-nummeret til RAID-kontrolleren (1-12) Bruk: (Forutsatt at kontrolleren er 1) ipssend scandrives 1 8. backup - backup array-informasjon Kommandoformat: IPSSEND BACKUP-kontrollerfilnavn l-kontrolleren refererer til ID-nummeret til RAID-kontrolleren (1-12) Eksempler på bruk: ipssend backup 1 backupfil 9. gjenopprette--Gjenopprette den sikkerhetskopierte array-informasjonen Kommandoformat: IPSSEND RESTORE kontrollerfilnavn l-kontrolleren refererer til ID-nummeret til RAID-kontrolleren (1-12) Eksempler på bruk: ipssend restore 1 backupfil
Om IBMs nedgraderingsmetode for BIOS på RAID-kort Dette er et program flashman.pro fil på IBM-oppgraderingsdisken, du må endre følgende program for å nedgradere RAID BIOS, og bruke IBM RAID-plater for å nedgradere RAID BIOS. Måten å gjøre dette på er å laste ned BIOS-oppgraderingen 4.84 først Program.4.84 BIOS/firmare oppgraderingsdisk. Den flashman.pro filen lyder:
ServeRAID-familiens firmware og BIOS-nedlastingsverktøyprofil Diskutgivelse: 4.84.01 . Format = [------ BIOS -------] [---- Firmware -----] [------ Støvel -------] :adapternavn, bildenavn,rev#,dsk#,bildenavn,rev#,dsk#,bildenavn,rev#,rev#,dsk#, . ----------------------------------------------------------------------------- . Type:ServeRAID,A: . Ukjent adapter :?,raid.img,99,1,codeblk.cph,99,2,bootblk.cph,0.00.00,1, . Copperhead-adapter :ServeRAID,raid.img,4.84.01,1,codeblk.cph,2.25.01,2,bootblk.cph,0.00.00,1, . ServeRAID på planart bilde (Navajo) :ServeRAID1C1,raid.img,4.84.01,1,codeblk.nvj,2.88.13,2,bootblk.nvj,0.00.00,1, . Copperhead-Refresh-adapter :Tjen RAID II,raid.img,4.84.01,1,codeblk.rf,2.88.13,2,bootblk.rf,0.00.00,1, . Copperhead-Refresh på høvel (Kiowa) :ServeRAID2C2,raid.img,4.84.01,1,codeblk.rf,2.88.13,2,bootblk.rf,0.00.00,1, . Klarinettadapter :ServeRAID-3H,raid.img,7.84.01,1,codeblk.cln,7.84.01,1,bootblk.cln,0.00.00,1, . Klarinett-Lite-adapter (Obo) :ServeRAID-3L,raid.img,7.84.01,1,codeblk.cln,7.84.01,1,bootblk.cln,0.00.00,1, . Tromboneadapter :ServeRAID-4H,raid.img,7.84.01,1,codeblk.trb,7.84.01,2,bootblk.trb,0.00.00,1, . Morpheus-adapter :ServeRAID-4M,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.mor,0.00.00,1, . Morpheus-Lite-adapter :ServeRAID-4L,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.mor,0.00.00,1, . Neo-adapter :ServeRAID-4Mx,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.neo,4.84.01,1, . Neo-Lite-adapter :ServeRAID-4Lx,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.neo,4.84.01,1,
Denne metoden er å endre 4lx, raid.img, 4.84.01, 1 (endre til 7.84.01, 1), codedblk, neo, 4.84.01, 1 ((endring til 7.84.01, 1) og andre uendret, når BIOS oppgraderes, oppdages det at 6.10 ikke er høyt nok til å oppgradere til den nye 7.84 BIOS, og faktisk generere 4.84. Dette kalles lys oppgang og mørk fall. Etter omstart vil RAID-kortet rapportere en feil, noe som er normalt, CATL+1 går inn i RAID-kortet og initialiserer på nytt. Det er greit å gjenta. Bruk en BIOS-oppgraderingsdisk med 4.84 fra Internett. Åpne flashman.pro-filen i Notepad og endre den. Hvis den faller. BIOS klarer fortsatt ikke RAID eller harddisken er ødelagt, koble SCSI-kabelen fra harddiskens bakplan til SCSI-grensesnittet på hovedkortet, CATL+A skanner harddisken for å se om den passerer jevnt, eller noen OEM-harddisker kan ikke lage RAID. Det er så ille, så det er ikke nødvendig å gjøre RAID. Selvfølgelig er det beste å ha en original IBM-harddisk som RAID 0. Jeg hjelper deg her, nøkkelen er opp til deg å bedømme selv. Det finnes problemer Ring meg igjen. Jeg har mange RAID-plater fra RAID 3.0 |