Introduction à la technologie d’architecture d’entreprise des serveurs IBM X-Series Caractéristiques et avantages de l’architecture IBM Enterprise Type X (EXA) : L’architecture IBM Enterprise X démontre comment une approche habilement conçue de l’évolution peut créer des fonctionnalités innovantes. L’architecture Enterprise Type X utilise trois composants de technologie serveur standard dans l’industrie — processeur, mémoire et E/S — et est encore améliorée par des fonctionnalités avancées conçues pour porter les systèmes standards au niveau supérieur.
L’architecture Enterprise Type X apporte des fonctionnalités aux serveurs standards de l’industrie qui étaient auparavant réservées aux mainframes et autres utilisateurs haut de gamme des systèmes. Ces nouvelles fonctionnalités, combinées aux technologies existantes d’architecture X-type, créent une évolutivité révolutionnaire, une économie, une flexibilité inégalée et de nouveaux niveaux de disponibilité et de performance. Les principales caractéristiques qui ravissent les clients en simplifiant la gestion, en réduisant les coûts et en améliorant la disponibilité incluent : o Évolutivité XpandOnDemand, segmentation système, sous-système d’E/S PCI–X, PCI–X actif o I/O o Mémoire ProteXion - Mémoire Chipkill - Miroir de mémoire - Mémoire à chaud ajouté/échangeable à chaud (bientôt disponible) o cache accélérateur de serveur XceL4
Dans le contenu suivant, nous allons présenter en détail les quatre aspects de la scalabilité des serveurs, du cache L4, de la technologie mémoire et de l’E/S.
Architecture de type X d’entreprise : XpandOnDemand Grâce à sa conception modulaire flexible, l’architecture Enterprise X crée une économie révolutionnaire pour les serveurs : les clients n’ont plus besoin d’acheter autant de serveurs que possible à l’avance pour assurer la croissance future de leurs capacités. Vous pouvez payer au fur et à mesure que vous grandirez. Nous appelons cela une scalabilité innovante XpandOnDemand.
La technologie d’architecture Enterprise de type X utilise un bloc de construction standard SMP à 4 voies amélioré et haute performance appelé module d’extension SMP. En utilisant ces modules 4 voies comme nœuds d’entreprise évolutifs, les modules d’extension IBM SMP permettent une expansion efficace de systèmes 4 voies à 8 voies, puis à 12 voies — et même 32 voies, les reliant via un seul port d’extension SMP à grande vitesse. Ainsi, si le client a finalement besoin de plus de capacités de traitement, un module 4 voies supplémentaire peut être ajouté pour créer un serveur à 8 sockets combiné à un câblage simple. Si ces serveurs à 8 sockets ne fournissent pas suffisamment de fentes et de baies, ils peuvent encore augmenter la capacité des emplacements d’E/S en branchant des unités d’extension d’E/S externes (décrites plus loin) et des unités de stockage distantes telles que l’IBM EXP500.
Les modules d’extension SMP de l’architecture Enterprise Type X comprennent des processeurs, de la mémoire, la prise en charge des E/S, le cache, le stockage et d’autres dispositifs pouvant être exécutés séparément comme d’autres serveurs. Chaque module peut exécuter un système d’exploitation différent des autres, ou plusieurs modules peuvent être attribués à une version du système d’exploitation via la segmentation du système si nécessaire. Avec la segmentation système, un système peut être configuré comme un système mémoire partageant 16 processeurs, ou divisé en plusieurs segments. En fin de compte, lorsque toutes les fonctionnalités EXA sont prises en charge, un segment est aussi petit qu’un processeur.
Les modules sont connectés entre eux par des dispositifs d’interconnexion dédiés à haute vitesse appelés ports d’extension SMP, partageant les ressources pour une scalabilité quasi linéaire, permettant aux utilisateurs de s’adapter pour exécuter plusieurs nœuds en tant qu’unité de grand conglomérat, ou en deux unités ou plus petites — ou même de réarranger la configuration plus tard selon les besoins.
La technologie EXA permet également un accès entre tous les processeurs et toute la mémoire, indépendamment de leurs nœuds respectifs, réduisant ainsi la connectivité. Avec chaque nœud supplémentaire, vous pouvez également ajouter des chipsets, des bus front-end, des bus PCI et d’autres ressources pour partager le trafic de données. Plus de nœuds signifient plus de bande passante système. Imaginez les conflits et les problèmes de ressources auxquels vous êtes confronté dans un système SMP traditionnel à 16 ou 32 voies.
De même, prendre en charge un cluster de serveurs connectés par basculement est aussi simple que de connecter deux, trois ou quatre nœuds à 4 voies. Vous pouvez utiliser le même routage de port d’extension système entre les nœuds pour l’interconnexion de clusters. Pour les clusters évolutifs, une interconnexion à haute vitesse peut être créée sans configuration Ethernet complexe, car elle existe déjà via les ports d’extension SMP. De plus, le slot Ethernet PCI–X est ouvert à d’autres entrées/sorties.
Technologie du module d’extension SMP : cache accélérateur serveur XceL4 Une fonctionnalité avancée prise en charge par l’architecture Enterprise Type X (EXA) est un cache système massif de niveau 4 (XceL4 Server Accelerator Cache) qui assure le bon fonctionnement de la technologie de performance mémoire du module d’extension SMP, avec 64 Mo de mémoire ECC haute vitesse DDR (Double Data Transfer Rate) à 400 MHz par module d’extension SMP dans les serveurs Itanium, contre 32 Mo dans les systèmes Xeon.
En utilisant une mémoire DDR à haute vitesse entre le processeur et la mémoire principale, le cache XceL4 peut grandement améliorer les performances du processeur et des périphériques d’E/S. Quelle est l’amélioration des performances ? Dans un secteur où les fournisseurs affichent un avantage de performance supérieur à 2 % sur les concurrents, la mise en cache XceL4 peut augmenter le débit sur tous les serveurs de 15 % à 20 %.
Les processeurs Intel 32 et 64 bits contiennent une mémoire cache intégrée de niveau 1, niveau 2 et (utilisant Itanium) relativement petite échelle (128 K à 4 Mo, selon le processeur) de mémoire cache intégrée de niveau 1, niveau 2 et (utilisant Itanium) niveau 3. La quantité de cache intégrée est limitée par l’espace disponible à l’intérieur du module processeur. Plus la mémoire cache est grande, plus le processeur cherchera souvent les données dont il a besoin, et moins il aura à accéder à la mémoire principale plus lente. (La vitesse du processeur augmente à un rythme bien supérieur à celui de la mémoire principale ; Le nombre de fois où la mémoire principale doit être consultée augmente chaque année. )
Grande capacité mémoire La mémoire active est une percée dans la technologie de la mémoire de masse des architectures de type X d’entreprise, conçue pour augmenter la capacité, la performance et la fiabilité. L’une de ces technologies est la capacité de supporter de grandes capacités mémoire.
Alors que certains serveurs sont encore limités par le nombre de slots mémoire qu’ils peuvent installer, d’autres sont limités par la capacité maximale de mémoire que le chipset utilisé peut supporter. Pour ces raisons, la plupart des serveurs ont une limite de mémoire de 16 Go de RAM ou moins. L’architecture Enterprise Type X franchit cette barrière, permettant jusqu’à 256 Go de RAM (64 Go dans un serveur basé sur un processeur Intel Xeon MP 32 bits) dans un serveur basé sur un serveur basé sur un Itanium 64 bits.
Mémoire ProteXion Memory ProteXion aide à protéger contre les pannes soudaines causées par des erreurs de mémoire physique. Il fonctionne de manière assez similaire aux secteurs de disque de secours dans le système de fichiers NTFS de Windows, et si le système d’exploitation détecte des secteurs défectueux sur le disque, il écrira les données sur le secteur de réserve à cette fin. Memory ProteXion (également appelé réglage de bits redondant sur d’autres systèmes) a été initialement développé pour les mainframes IBM et a été utilisé pendant de nombreuses années sur les serveurs zSeries et iSeries.
Les serveurs protégés par Memory ProteXion ont près de 200 fois moins de risques de défaillance qu’un serveur utilisant de la mémoire ECC standard. Le DIMM ECC (Détection et Correction d’Erreurs) contient 144 bits, mais seulement 140 bits sont utilisés pour les données, et les quatre bits restants ne sont pas utilisés. Memory ProteXion réécrit simplement les données sur certains de ces bits de rechange, plutôt que de désactiver rapidement les DIMMs. Cette approche permet à Memory ProteXion de corriger quatre erreurs de bits consécutives par DIMM — huit erreurs de bits consécutives par contrôleur mémoire (un serveur peut avoir plusieurs contrôleurs). Cette technologie avancée peut aider à réduire les temps d’arrêt des serveurs, ce qui aboutit à une plateforme informatique client-serveur plus robuste. Cela est particulièrement important dans les environnements de grandes bases de données, où les transactions/rollbacks, la réindexation et la synchronisation des données entre serveurs peuvent entraîner des heures de perte avant qu’une base de données plantée ne soit de nouveau opérationnelle. Si un contrôleur mémoire fonctionne en dehors du bit de veille, il continue d’agir comme une seconde ligne de défense pour la mémoire Chipkill.
La mémoire ECC Chipkill (désormais troisième génération des ordinateurs standards de l’industrie) ne fonctionne que lorsqu’un serveur subit un nombre suffisant d’erreurs en peu de temps que Memory ProteXion ne peut pas les résoudre.
Miroir de mémoire La troisième ligne de défense contre les pannes de serveur dues à des pannes de mémoire est le miroir mémoire. Dans cette technologie, la mémoire est gérée de manière très similaire au miroir de disque dans une configuration RAID. Dans ce cas, la correspondance exacte des données sur la clé USB principale est reflétée dans le module de mémoire de secours ou de secours. Le résultat est que si une clé USB tombe en panne, la clé USB miroir devient la clé principale. Après avoir remplacé la clé USB défaillante, les données dans la mémoire de la clé principale sont en miroir vers la nouvelle clé USB.
Système d’E/S PCI–X et PCI–X actif Les derniers bus d’E/S PC permettent plusieurs segments de bus PCI 64 bits à 66 MHz, supportant de 400 à 500 MBps par segment. Cette bande passante n’est pas suffisante pour supporter des environnements émergents de 10 Gbps (gigaoctets par seconde) — ou plus — d’E/S.
Sans autres améliorations de performance, le PCI deviendra rapidement un goulot d’étranglement empêchant ces réseaux à haute vitesse de connecter les serveurs à la vitesse maximale du réseau. Les goulots d’étranglement d’E/S ont empêché les serveurs standards de l’industrie de devenir une architecture système équilibrée, une caractéristique des serveurs Intel à haute vitesse et des systèmes mainframe. Ainsi, pour résoudre ces problèmes de performance, l’industrie a développé un bus amélioré appelé PCI–X, conçu pour prolonger la durée de vie du PCI jusqu’à ce que les architectures d’E/S série de nouvelle génération telles qu’InfiniBand soient prêtes.
PCI–X permet à tous les adaptateurs PCI actuels 32 et 64 bits à 66 MHz de fonctionner correctement sur le bus PCI–X. L’adaptateur PCI–X tire pleinement parti des nouveaux débits de bus de 100 MHz et 133 MHz, qui permettent à un seul adaptateur 64 bits de fournir jusqu’à 1 gigaoctet de données par seconde. De plus, PCI–X prend en charge deux fois plus d’adaptateurs PCI 66 MHz 64 bits dans un seul bus.
Active PCI–X vous permet d’ajouter ou de remplacer des cartes compatibles Active PCI et Active PCI–X sans éteindre le serveur. Les fonctionnalités Active PCI–X conçues pour améliorer la disponibilité globale des serveurs sont classées comme suit : Le système hot-swappable permet de remplacer un adaptateur défectueux ou imminent sans redémarrer Hot Add offre des mises à jour faciles qui permettent d’ajouter de nouveaux adaptateurs pendant que le serveur tourne (IBM a été le premier du secteur à proposer cette fonctionnalité) Le basculement permet à l’adaptateur de secours d’exécuter tous les services traités en cas de défaillance de l’adaptateur principal
Questions techniques concernant le serveur 8658-51Y 5100X230 : 1.8658 11Y----21Y—61Y-6RY et autres cartes mères NF 5100/X230 sont toutes identiques, ce type de serveur est dû à Il y a un problème avec la conception de production, et c’est une erreur VRM de premier slot CPU, qui peut brûler le processeur et la carte mère dans les cas graves. 2. Pour résoudre ce problème, IBM a ensuite mis en place une carte améliorée 5100 appelée FRU : 59P5869 Vous ne pouvez pas brûler le VRM du CPU, c’est-à-dire le premier emplacement du CPU, vous pouvez charger le CPU normalement : Parmi les principaux clients figurent IBM Send Basket Fast L’ingénieur a remplacé la carte mère par la carte améliorée FRU :59P5869. 3. Il existe une autre méthode : l’approche d’ingénieur de Lankuai (pratiquée) consiste à déplacer le CPU vers le second emplacement CPU Ajoutez une carte terminouse VRM du deuxième emplacement CPU original au premier emplacement du CPU, et ainsi de suite Cela évite la perte de la consommation du premier CPU. C’est-à-dire que le serveur ne peut aller que jusqu’à un seul processeur Le deuxième emplacement CPU. Cela convient aux plaques FRU : 09N7844 06P6165 25P3289, c’est-à-dire plaques non modifiées. 4. C’est aussi la raison pour laquelle l’IBM 5100/X230 est sujet à des problèmes, mais il existe aussi une solution. Donc un bon processeur ne devrait jamais aller au premier emplacement du CPU. Explication détaillée de la méthode de commande et de configuration Ipssend Ipssend est un outil pour configurer des tableaux en ligne de commande, le fichier de commande lui-même est très petit, facile à télécharger sur Internet, ce qui peut résoudre le problème de certains utilisateurs qui perdent des raids de serveur, des disques guides de serveur et ne peuvent pas télécharger environ 500 Mo de fichiers image iso de disque depuis Internet.
Commandes principales :
1.create - La fonction de cette commande est de créer un disque logique au-dessus d’un tableau existant ou d’un nouveau tableau. Remarque : Cette commande ne peut pas créer de disque logique pour RAID niveau x0. Format de commande : IPSSEND CREATE contrôleur LOGICALDRIVE NEWARRAY/ARRAYID taille raidlevel {channel sid}
Le contrôleur l fait référence au numéro d’identification du contrôleur RAID (1-12) L NEWARRAY signifie créer un nouveau tableau (si vous ne voulez pas créer un nouveau tableau, vous pouvez l’omettre) L taille et niveau de raid sont respectivement les niveaux de taille et d’array des disques logiques à créer Exemple : (Le contrôleur par défaut est 1, l’identifiant du disque dur commence à 0, la taille du disque logique est de 100 Mo) 1. Un disque dur fait RAID 0 : ipssend crée 1 disque logique newarray 100 0 1 0. Les 1 derniers 0 font référence au {canal sid} correspondant 2. Faire RAID 0 sur deux disques durs : ipssend créer 1 logicaldrive newarray 100 0 1 0 1 1 1. Les derniers 1 0 1 1 font référence au {canal sid} correspondant 3. Deux disques durs font RAID 1 : ipssend créer 1 disque logique newarray 100 1 1 0 1 1. Les derniers 1 0 1 1 font référence au {canal sid} correspondant 4. Trois disques durs font RAID 5 : ipssend créer 1 disque logique newarray 100 5 1 0 1 1 1 2. Le dernier 1 0 1 1 1 2 fait référence à la commande {channel sid} correspondante qui définira ce nouveau tableau comme tableau a. 5. Si vous souhaitez créer une autre commande d’entrée logicaldrive basée sur l’exemple 4 : ipssend crée 1 LogicalDrive un 100 5 1 0 1 1 1 1 1 2. Les derniers 1 0 1 1 1 2 font référence au {canal sid} correspondant
2.delete - Cette commande supprime un tableau déjà existant. En même temps, les données sur le disque logique seront perdues. Note : Cette commande ne peut pas supprimer le disque logique du niveau RAID x0 Format de commande : contrôleur IPSSEND DELETE ARRAY array Le contrôleur l fait référence au numéro d’identification du contrôleur RAID (1-12) l arrayID est le tableau qui existe (A-H) Exemple : (En supposant que le contrôleur soit 1 et que l’arrayID soit a) ipssend supprimer 1 tableau A
3. devinfo - Cette commande indique l’état et la taille du disque physique. Format de commande : sid du canal du contrôleur IPSSEND DEVINFO Le contrôleur l fait référence au numéro d’identification du contrôleur RAID (1-12) le canal l fait référence au canal SCSI (1-4) L SID fait référence au numéro d’identification SCSI (0-15)
Par exemple : ipssend devinfo 1 1 0
Elle est présentée comme suit : J’ai trouvé 1 ou plusieurs contrôleurs IBM ServeRAID. Les informations sur l’appareil ont été initiées pour le contrôleur 1... L’appareil est un disque dur Canal : 1 ID SCSI : 0 PFA (Oui/Non) : Non État : Prêt (RDY) Taille (en Mo)/(en secteurs) : 34715/71096368 ID de l’appareil : IBM-ESXSST336732B84G3ET0YAHS Numéro de pièce FRU : 06P5778 Commande achevée avec succès.
4. lecteur - Cette commande indique l’identifiant du fabricant, la version du firmware et le numéro de série du disque physique. Format de commande : canal de contrôle IPSSEND DRIVEVER Le contrôleur l fait référence au numéro d’identification du contrôleur RAID (1-12) le canal l fait référence au canal SCSI (1-4) L SID fait référence au numéro d’identification SCSI (0-15)
Lecteur IPSSEND 1 1 0 Elle est présentée comme suit : J’ai trouvé 1 ou plusieurs contrôleurs IBM ServeRAID. Enquête SCSI DCDB a été lancée pour le contrôleur 1... Type de périphérique : Disque dur Canal : 1 ID SCSI : 0 Fournisseur : IBM-ESXS Niveau de révision : B84G Numéro de série : 3ET0YAHS Commande achevée avec succès.
5. getconfig - Cette commande liste des informations sur le contrôleur, le disque logique et le système physique Format de commande : contrôleur IPSSEND GETCONFIG AD/LD//AL Contrôleur fait référence au numéro d’identification du contrôleur RAID (1-12) L AD affiche les informations du contrôleur L LD affiche des informations sur les disques logiques L affiche des informations sur les dispositifs physiques L AL affiche toutes les informations ci-dessus Exemple : (Manette par défaut est 1) ipssend getconfig 1 al
6. setconfig - Cette commande modifie la configuration du contrôleur, comme reprendre la valeur par défaut et copier les informations du tableau depuis le disque dur Format de commande : IPSSEND SETCONFIG contrôleur DEFAULT/IMPORTDRIVE Exemple : Retour à un contrôleur à un réglage de sortie : ipssend setconfig 1 par défaut Copiez les informations du tableau depuis le disque dur : ipssend setconfig 1 importdrive
7.scandrives – scanne tous les disques durs du contrôleur Format de commande : contrôleur IPSSEND SCANDRIVES Le contrôleur l fait référence au numéro d’identification du contrôleur RAID (1-12) Utilisation : (En supposant que la manette soit 1) Scandrives IPSSEND 1 8. Sauvegarde - Informations sur les réseaux de sauvegarde Format de commande : fichier contrôleur IPSSEND BACKUP Le contrôleur l fait référence au numéro d’identification du contrôleur RAID (1-12) Exemples d’utilisation : sauvegarde ipssend 1 fichier de sauvegarde 9. restaurer—Restaurer les informations du réseau sauvegardé Format de commande : fichier contrôleur IPSSEND RESTORE Le contrôleur l fait référence au numéro d’identification du contrôleur RAID (1-12) Exemples d’utilisation : IPSSEND Restore 1 sauvegarde
À propos de la méthode de rétrogradation du BIOS par carte RAID d’IBM Il s’agit d’un fichier flashman.pro programme dans le disque de mise à niveau IBM, vous devez modifier le programme suivant pour rétrograder le BIOS RAID, et utiliser les disques RAID IBM pour rétrograder le BIOS RAID. La façon de procéder est de télécharger d’abord la mise à jour du BIOS 4.84 Disque de mise à jour du BIOS/firmare Program.4.84. Le flashman.pro fichier indique :
Profil utilitaire de téléchargement du firmware et du BIOS de la famille ServeRAID Sortie disque : 4.84.01 . Format = [------ BIOS -------] [---- Firmware -----] [------ Botte -------] :Nom de l’adaptateur, nom de l’image, Rev#,Dsk#,Nom de l’image,Rev#,Dsk#,Nom de l’image,Rev#,Dsk#, . ----------------------------------------------------------------------------- . Type : ServirRAID, A : . Adaptateur inconnu :?,raid.img,99,1,codeblk.cph,99,2,bootblk.cph,0.00.00,1, . Adaptateur Copperhead :ServirRAID, raid.img,4.84.01,1,codeblk.cph,2.25.01,2,bootblk.cph,0.00.00,1, . Serve RAID sur image planaire (navajo) :ServeRAID1C1,raid.img,4.84.01,1,codeblk.nvj,2.88.13,2,bootblk.nvj,0.00.00,1, . Adaptateur Copperhead-Refresh :ServeRAID II,raid.img,4.84.01,1,codeblk.rf,2.88.13,2,bootblk.rf,0.00.00,1, . Copperhead-Refresh sur raboteuse (Kiowa) :ServeRAID2C2,raid.img,4.84.01,1,codeblk.rf,2.88.13,2,bootblk.rf,0.00.00,1, . Adaptateur clarinette :ServeRAID-3H, raid.img, 7.84.01, 1, codeblk.cln, 7.84.01, 1, bootblk.cln, 0.00.00, 1, . Adaptateur Clarinet-Lite (hautbois) :ServeRAID-3L,raid.img,7.84.01,1,codeblk.cln,7.84.01,1,bootblk.cln,0.00.00,1, . Adaptateur de trombone :ServeRAID-4H,raid.img,7.84.01,1,codeblk.trb,7.84.01,2,bootblk.trb,0.00.00,1, . Adaptateur Morpheus :ServeRAID-4M,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.mor,0.00.00,1, . Adaptateur Morpheus-Lite :ServeRAID-4L,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.mor,0.00.00,1, . Adaptateur Neo :ServeRAID-4Mx,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.neo,4.84.01,1, . Adaptateur Neo-Lite :ServeRAID-4Lx,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.neo,4.84.01,1,
Cette méthode consiste à changer 4lx, raid.img, 4.84.01, 1 (changement à 7.84.01, 1), codedblk, neo, 4.84.01, 1 ((changement à 7.84.01, 1) et autres inchangés ; lorsque le BIOS est mis à jour, on constate que 6.10 n’est pas suffisant pour passer au nouveau BIOS 7.84, et en fait générer 4.84. Cela s’appelle light rise et dark fall. Après redémarrage, la carte RAID signalera une erreur, ce qui est normal, CATL+1 entre dans la carte RAID et initialise à nouveau. C’est normal de le répéter. Utilisez un disque BIOS 4.84 depuis Internet. Ouvrez le fichier flashman.pro dans Notepad et changez-le. Si ça tombe. Le BIOS ne peut toujours pas faire de RAID ou le disque dur est cassé, connecte le câble SCSI du backplane du disque dur à l’interface SCSI de la carte mère, scanne le disque dur en CATL+A pour voir s’il passe de façon uniforme, ou si certains disques durs OEM ne peuvent pas produire de RAID. C’est dommage, donc pas besoin de faire du RAID. Bien sûr, avoir un disque dur IBM d’origine en RAID 0 est la meilleure vérification. Je vais t’aider ici, la clé t’appartient de juger par toi-même. Il y a des problèmes Rappelle-moi. J’ai beaucoup de disques RAID de RAID 3.0 |