Wprowadzenie do technologii architektury serwerowej IBM X-Series Funkcje i zalety IBM Enterprise Type X Architecture (EXA): IBM Enterprise X-Architecture pokazuje, jak sprytnie przemyślane podejście do ewolucji może tworzyć innowacyjne funkcje. Architektura Enterprise Type X wykorzystuje trzy branżowe standardowe komponenty serwerowe — procesor, pamięć oraz I/O — i jest dodatkowo wzbogacona o zaawansowane funkcje, które mają na celu podniesienie standardowych systemów na wyższy poziom.
Architektura Enterprise Type X wprowadza do standardowych serwerów branżowych funkcje, które wcześniej były dostępne tylko dla mainframe'ów i innych zaawansowanych użytkowników systemów. Te nowe funkcje, w połączeniu z istniejącymi technologiami architektury typu X, tworzą rewolucyjną skalowalność, ekonomię, niezrównaną elastyczność oraz nowe poziomy dostępności i wydajności. Kluczowe funkcje, które zachwycają klientów poprzez upraszczanie zarządzania, obniżenie kosztów i poprawę dostępności, to: o skalowalność XpandOnDemand, segmentacja systemu, podsystem PCI–X, aktywny PCI–X o I/O o Memory ProteXion - Pamięć Chipkill - Lustrzane odbicie pamięci - Pamięć dodawana na bieżąco/wymieniana na gorąco (wkrótce dostępna) o XceL4 server accelerator cache
W poniższej treści szczegółowo przedstawimy cztery aspekty skalowalności serwera: pamięć podręczną L4, technologię pamięci oraz I/O.
Architektura typu X dla przedsiębiorstw: XpandOnDemand Dzięki elastycznej, modułowej konstrukcji, architektura Enterprise X tworzy rewolucyjną nową gospodarkę dla serwerów: klienci nie muszą już kupować tylu serwerów z góry, ile się da, aby zapewnić przyszły wzrost pojemności. Możesz płacić w miarę rozwoju. Nazywamy to innowacyjną skalowalnością XpandOnDemand.
Technologia architektury typu Enterprise X wykorzystuje ulepszony, wysokowydajny 4-drożny moduł standardowy SMP zwany modułem rozszerzeń SMP. Wykorzystując te moduły czterokierunkowe jako skalowalne węzły przedsiębiorstwa, moduły rozszerzeń IBM SMP umożliwiają efektywną rozbudowę od systemów 4-drożnych do 8-drożnych, a nawet 12-drożnych, a nawet 32-drożnych, łącząc je za pomocą jednego szybkiego portu rozszerzeń SMP. Dlatego, jeśli klient będzie potrzebował większych możliwości obliczeniowych, można dodać zapasowy moduł czteropasmowy, aby stworzyć serwer 8-socketowy połączony z prostym okablowaniem. Jeśli serwery 8-gniazdowe nie zapewniają wystarczającej liczby slotów i zatoczek, mogą dodatkowo zwiększyć pojemność slotów I/O, podłączając zewnętrzne zdalne jednostki rozszerzeń I/O (opisane później) oraz jednostki pamięci masowej, takie jak IBM EXP500.
Moduły rozszerzeń SMP w architekturze typu X w przedsiębiorstwie obejmują procesory, pamięć, wsparcie I/O, pamięć podręczną, pamięć masową oraz inne urządzenia, które mogą być uruchamiane oddzielnie, podobnie jak inne serwery. Każdy moduł może uruchamiać system operacyjny różniący się od pozostałych, lub wiele modułów może być przypisanych do wersji systemu operacyjnego poprzez segmentację systemu, jeśli jest to konieczne. Dzięki segmentacji systemu system może być skonfigurowany jako system pamięci, który współdzieli 16 procesorów lub podzielony na wiele segmentów. Ostatecznie, gdy wszystkie funkcje EXA są obsługiwane, segment jest tak mały jak procesor.
Moduły są połączone ze sobą za pomocą dedykowanych, szybkich urządzeń łączących sieci zwanych portami rozszerzeń SMP, które dzielą zasoby dla niemal liniowej skalowalności, pozwalając użytkownikom dostosować się do działania wielu węzłów jako dużego konglomeratu lub dwóch lub więcej mniejszych jednostek—a nawet później przestawiać konfigurację w razie potrzeby.
Technologia EXA zapewnia również dostęp między wszystkimi procesorami i pamięcią, niezależnie od ich odpowiednich węzłów, co zmniejsza łączność. Z każdym kolejnym węzłem możesz także dodawać chipsety, magistrale front-endowe, magistrale PCI i inne zasoby do współdzielenia ruchu danych. Więcej węzłów oznacza większą przepustowość systemu. Wyobraź sobie konflikty i problemy z zasobami, z którymi napotykasz tradycyjny system SMP z 16 lub 32 stronami.
Podobnie obsługa klastra serwerów połączonych przez failover jest tak prosta, jak połączenie dwóch, trzech lub czterech węzłów czterokierunkowych. Możesz użyć tego samego rozszerzenia portów systemowych między węzłami do łączenia klastra. W przypadku skalowalnych klastrów można stworzyć szybkie połączenie sieciowe bez skomplikowanego układu Ethernet, ponieważ już istnieje za pośrednictwem portów rozszerzeń SMP. Dodatkowo, gniazdo Ethernet PCI–X jest otwarte dla innych I/O.
Technologia modułu rozszerzenia SMP: Pamięć podręczna akceleratora serwera XceL4 Zaawansowaną funkcją wspieraną przez Enterprise Type X Architecture (EXA) jest ogromna pamięć podręczna systemu poziomu 4 (XceL4 Server Accelerator Cache), która zapewnia prawidłowe działanie technologii wydajności pamięci modułów rozszerzeń SMP, z 64 MB wysokiej prędkości pamięci ECC o częstotliwości 400 MHz DDR (Double Data Transfer Rate) na moduł rozszerzenia SMP w serwerach opartych na Itanium w porównaniu do 32 MB w systemach Xeon.
Dzięki zastosowaniu szybkiej pamięci DDR między procesorem a pamięcią główną, pamięć podręczna XceL4 może znacznie poprawić wydajność procesora i urządzeń I/O. O ile poprawiono wydajność? W branży, w której dostawcy mogą pochwalić się przewagą wydajności ponad 2% nad konkurencją, caching XceL4 może zwiększyć przepustowość na wszystkich serwerach nawet o 15% do 20%.
Procesory Intel 32-bitowe i 64-bitowe zawierają stosunkowo niewielką skalę (128 K do 4 MB, w zależności od procesora) wbudowanej pamięci podręcznej poziomu 1, poziomu 2 oraz (przy użyciu Itanium) poziomu 3. Ilość wbudowanej pamięci podręcznej jest ograniczona przez dostępną przestrzeń wewnątrz modułu procesora. Im większa pamięć podręczna, tym częściej procesor będzie szukał potrzebnych danych i tym mniej będzie musiał korzystać z wolniejszej pamięci głównej. (Prędkość procesora rośnie znacznie szybciej niż prędkość pamięci głównej; Liczba razy, gdy trzeba uzyskać dostęp do pamięci głównej, rośnie z każdym rokiem. )
Duża pojemność pamięci Pamięć aktywna to przełom w technologii pamięci masowej w architekturach typu X dla przedsiębiorstw, zaprojektowany w celu zwiększenia pojemności, wydajności i niezawodności. Jedną z takich technologii jest możliwość obsługi dużych pojemności pamięci.
Podczas gdy niektóre serwery są nadal ograniczone liczbą slotów pamięci, które mogą instalować, inne są ograniczone maksymalną ilością pamięci, jaką chipset używany przez serwer może obsłużyć. Z tych powodów większość serwerów ma limit pamięci do 16 GB RAM. Architektura Enterprise Type X łamie tę barierę, pozwalając na wykorzystanie do 256 GB pamięci RAM (64 GB na serwerze opartym na 32-bitowym procesorze Intel Xeon MP) na serwerze opartym na 64-bitowym serwerze opartym na Itanium.
Memory ProteXion Memory ProteXion pomaga chronić przed nagłymi awariami spowodowanymi twardymi błędami pamięci. Działa on nieco podobnie do gorących sektorów dysku zapasowych w systemie plików Windows NTFS i jeśli system operacyjny wykryje uszkodzone sektory na dysku, zapisze dane do tego sektora. Memory ProteXion (znany również jako redundantne tuning bitów na innych systemach) został pierwotnie opracowany dla mainframe'ów IBM i od wielu lat używany na serwerach zSeries i iSeries.
Serwery chronione przez Memory ProteXion mają prawie 200 razy mniejsze ryzyko awarii niż serwery korzystające ze standardowej pamięci ECC. DIMM ECC (Error Detection and Correction) zawiera 144 bity, ale tylko 140 bitów jest wykorzystywanych do danych, a pozostałe cztery bity są niewykorzystane. Memory ProteXion po prostu przepisuje dane na niektóre z tych wolnych bitów, zamiast szybko wyłączać DIMM-y. To podejście pozwala Memory ProteXion korygować cztery kolejne błędy bitowe na DIMM — osiem kolejnych błędów bitowych na kontroler pamięci (serwer może mieć wiele kontrolerów). Ta zaawansowana technologia może pomóc zmniejszyć przestoje serwera, co skutkuje bardziej stabilną platformą klient-serwer. Jest to szczególnie ważne w dużych środowiskach baz danych, gdzie transakcje/cofanie, ponowne indeksowanie i synchronizacja danych między serwerami mogą skutkować utratą godzin przed przywróceniem awarii bazy danych. Jeśli kontroler pamięci działa poza bitem czuwania, nadal pełni rolę drugiej linii obrony pamięci Chipkill.
Pamięć ECC Chipkill (obecnie trzecia generacja standardowych komputerów branżowych) działa tylko wtedy, gdy serwer doświadcza tylu błędów w krótkim czasie, że Memory ProteXion nie jest w stanie ich rozwiązać.
Lustrzane odbicie pamięci Trzecią linią obrony przed przestojami serwera spowodowanymi awariami pamięci jest lustrzanie pamięci. W tej technologii pamięć jest zarządzana w bardzo podobny sposób jak mirroring dysków w konfiguracji RAID. W tym przypadku dokładne mapowanie danych na głównej pamięci jest lustrzane do modułu pamięci zapasowej lub zapasowej. W efekcie jeśli jedna karta pamięci ulegnie awarii, lustrzana karta staje się główną pamięcią. Po wymianie uszkodzonej pendrive'a dane z pamięci głównej pamięci są lustrzane na nową pendrive.
System I/O PCI–X oraz aktywny PCI–X Najnowsze magistrale PC I/O umożliwiają obsługę wielu 64-bitowych segmentów magistrali PCI 66 MHz, obsługując od 400 do 500 MBps na segment. Ta przepustowość nie wystarcza, by obsłużyć nowe środowiska I/O o prędkości 10 Gbps (gigabajtów na sekundę) lub wyższych.
Bez innych usprawnień wydajności PCI szybko stanie się wąskim gardłem, uniemożliwiając tym szybkim sieciom łączenie serwerów z maksymalną prędkością sieci. Wąskie gardła wejścia i wyjścia uniemożliwiły serwerom standardowym w branży przekształcenie się w zrównoważoną architekturę systemową, co jest cechą szybkich serwerów opartych na Intelu i systemów mainframe. Aby rozwiązać te problemy wydajnościowe, branża opracowała ulepszoną magistralę o nazwie PCI–X, zaprojektowaną tak, aby wydłużyć żywotność PCI do czasu gotowości kolejnej generacji szeregowych architektur I/O, takich jak InfiniBand.
PCI–X pozwala wszystkim obecnym adapterom PCI 32-bitowym i 64-bitowym 66 MHz prawidłowo działać na magistrali PCI–X. Adapter PCI–X w pełni wykorzystuje nowe częstotliwości magistrali 100 MHz i 133 MHz, które pozwalają pojedynczemu adapterowi 64-bitowemu dostarczać do 1 gigabajta danych na sekundę. Ponadto PCI–X obsługuje dwukrotnie więcej adapterów PCI 66 MHz 64-bitowych na jednej magistrali.
Active PCI–X pozwala dodawać lub zastępować karty obsługujące Active PCI i Active PCI–X bez wyłączania serwera. Funkcje Active PCI–X, zaprojektowane w celu poprawy ogólnej dostępności serwerów, są klasyfikowane następująco: Możliwość wymiany na gorąco pozwala wymienić uszkodzony lub nadchodzący adapter bez konieczności restartowania Hot Add umożliwia łatwe aktualizacje, które pozwalają dodawać nowe adaptery podczas działania serwera (IBM jako pierwszy w branży zaoferował tę funkcję) Failover pozwala adapterowi backupowemu odpowiadać za uruchamianie wszystkich obsługiwanych usług w przypadku awarii głównego adaptera
Pytania techniczne dotyczące serwera 8658-51Y 5100X230: 1.8658 11Y----21Y—61Y-6RY oraz inne płyty główne NF 5100/X230 są takie same, tego typu serwery IBM jest zasługą Problem jest z projektem produkcyjnym oraz błędem VRM w pierwszym miejscu procesora, który w poważnych przypadkach powoduje przepalenie procesora i płyty głównej. 2. Aby rozwiązać ten problem, IBM później opracował ulepszoną płytę 5100 o nazwie FRU: 59P5869 Nie możesz spalić CPU VRM, czyli pierwszego slotu CPU, możesz załadować CPU normalnie: Do głównych klientów należą IBM Send Basket Fast Inżynier wymienił płytę główną na ulepszoną płytę FRU:59P5869. 3. Istnieje inny sposób: inżynierskie podejście Lankuai (praktykowane) na przeniesienie CPU do drugiego slotu CPU Dodaj płytę terminalową VRM CPU z oryginalnego drugiego slotu CPU do pierwszego slotu CPU i tak dalej Zapobiega to utracie spowodowanej spaleniem pierwszego procesora. To znaczy, serwer może mieć maksymalnie jeden procesor Drugi slot CPU. Pasuje to do FRU: 09N7844 06P6165 25P3289, czyli tablic niemodyfikowanych. 4. To także powód, dla którego IBM 5100/X230 jest podatny na problemy, ale istnieje też rozwiązanie. Więc dobry procesor nigdy nie powinien trafiać do pierwszego slotu CPU. Szczegółowe wyjaśnienie metody poleceń i konfiguracji Ipssend Ipssend to narzędzie do konfigurowania tablic w wierszu poleceń, sam plik poleceń jest bardzo mały, łatwy do pobrania z Internetu, co może rozwiązać problem utraty przez niektórych użytkowników dysków serwerowych RAID i instrukcji serwera oraz niemożności pobrania około 500Mb plików ISO z Internetu.
Główne komendy:
1.create - Funkcją tego polecenia jest utworzenie dysku logicznego na istniejącej lub nowej tablicy. Uwaga: To polecenie nie może utworzyć logicznego dysku dla poziomu RAID x0. Format poleceń: kontroler IPSSEND CREATE LOGICALDRIVE NEWARRAY/ARRAYID rozmiar raidlevel {channel sid}
Kontroler l odnosi się do numeru ID kontrolera RAID (1-12) l NEWARRAY oznacza utworzenie nowej tablicy (jeśli nie chcesz tworzyć nowej tablicy, możesz ją pominąć) L size i RAID to poziomy rozmiaru i tablicy dysków logicznych, które mają zostać utworzone, odpowiednio Przykład: (Domyślny kontroler to 1, identyfikator dysku twardego zaczyna się od 0, rozmiar dysku logicznego to 100Mb) 1. Dysk twardy wykonuje RAID 0: ipssend tworzy 1 logicaldrive newarray 100 0 1 0. Ostatnie 1 0 odnosi się do odpowiadającego {channel sid} 2. Wykonaj RAID 0 na dwóch dyskach twardych: ipssend create 1 logicaldrive newarray 100 0 1 0 1 1. Ostatnie 1 0 1 1 odnosi się do odpowiadającego {channel sid} 3. Dwa dyski twarde wykonują RAID 1: ipssend create 1 logicaldrive newarray 100 1 1 0 1 1. Ostatnie 1 0 1 1 odnosi się do odpowiadającego {channel sid} 4. Trzy dyski twarde wykonują RAID 5: ipssend create 1 logicaldrive newarray 100 5 1 0 1 1 1 2. Ostatnie 1 0 1 1 1 2 odnosi się do odpowiadającego polecenia {channel sid}, które zdefiniuje tę nową tablicę jako tablicę a. 5. Jeśli chcesz utworzyć kolejne polecenie logicznego napędu na podstawie przykładu 4: ipssend tworzy 1 napęd logiczny a 100 5 1 0 1 1 1 1 2. Ostatnie 1 0 1 1 1 2 odnosi się do odpowiadającego {kanału sid}
2.delete - To polecenie usuwa tablicę, która już istnieje. Jednocześnie dane na dysku logicznym zostaną utracone. Uwaga: To polecenie nie może usunąć dysku logicznego poziomu RAID x0 Format poleceń: kontroler IPSSEND DELETE ARRAY arrayed Kontroler l odnosi się do numeru ID kontrolera RAID (1-12) l arrayID to tablica, która istnieje (A-H) Przykład: (Zakładając, że kontroler to 1, a arrayID to a) ipssend usuń 1 tablicę a
3. devinfo - To polecenie pokazuje status i rozmiar fizycznego dysku. Format poleceń: IPSSEND DEVINFO controller channel sid Kontroler l odnosi się do numeru ID kontrolera RAID (1-12) Kanał l odnosi się do kanału SCSI (1-4) l SID odnosi się do numeru ID SCSI (0-15)
Na przykład: ipssend devinfo 1 1 0
Jest przedstawiona następująco: Znalazłem 1 kontroler(y) IBM ServeRAID. Informacje o urządzeniu zostały zainicjowane dla kontrolera 1... Urządzeniem jest dysk twardy Kanał: 1 SCSI ID: 0 PFA (Tak/Nie): Nie Stan: Gotowy (RDY) Wielkość (w MB)/(w sektorach): 34715/71096368 ID urządzenia: IBM-ESXSST336732B84G3ET0YAHS Numer części FRU: 06P5778 Dowództwo zakończyło się pomyślnie.
4. drivever – To polecenie zawiera ID producenta, wersję firmware oraz numer seryjny fizycznego dysku. Format poleceń: kanał kontrolera IPSSEND DRIVEVER Kontroler l odnosi się do numeru ID kontrolera RAID (1-12) Kanał l odnosi się do kanału SCSI (1-4) l SID odnosi się do numeru ID SCSI (0-15)
Ipssend drivever 1 1 0 Jest przedstawiona następująco: Znalazłem 1 kontroler(y) IBM ServeRAID. Rozpoczęto zapytanie SCSI DCDB dla kontrolera 1... Typ urządzenia: Dysk twardy Kanał: 1 SCSI ID: 0 Dostawca: IBM-ESXS Poziom rewizji: B84G Numer seryjny: 3ET0YAHS Dowództwo zakończyło się pomyślnie.
5. getconfig - To polecenie zawiera informacje o kontrolerze, dysku logicznym i fizycznym Format poleceń: kontroler IPSSEND GETCONFIG AD/LD/PD/AL Kontroler odnosi się do numeru ID kontrolera RAID (1-12) l AD wyświetla informacje o sterowniku l LD wyświetla informacje o dyskach logicznych L PD wyświetla informacje o fizycznych urządzeniach l AL pokazuje wszystkie powyższe informacje Przykład: (Domyślny kontroler to 1) ipssend getconfig 1 al
6. setconfig - Polecenie to zmienia konfigurację kontrolera, na przykład przywraca wartość domyślną i kopiuje informacje o tablicy z dysku twardego Format poleceń: kontroler IPSSEND SETCONFIG DEFAULT/IMPORTDRIVE Przykład: Przywróć kontroler do ustawienia wyjścia: ipssend setconfig 1 domyślny Skopiuj informacje o tablicy z dysku twardego: ipssend setconfig 1 importdrive
7. scandrives – skanuje wszystkie dyski twarde na kontrolerze Format poleceń: kontroler IPSSEND SCANDRIVES Kontroler l odnosi się do numeru ID kontrolera RAID (1-12) Użycie: (Zakładając, że kontroler to 1) Napędy skanujące ipssend 1 8. Kopia zapasowa – Informacje o macierzy zapasowej Format polecenia: nazwa pliku kontrolera IPSSEND BACKUP Kontroler l odnosi się do numeru ID kontrolera RAID (1-12) Przykłady użycia: Plik kopii zapasowej ipssend 1 9. Przywrócenie – Przywrócenie kopii zapasowej informacji o tablicy Format polecenia: IPSSEND RESTORE nazwa pliku kontrolera Kontroler l odnosi się do numeru ID kontrolera RAID (1-12) Przykłady użycia: ipssend restore 1 backupfile
O metodzie obniżania BIOS-u na karcie RAID IBM To plik programu flashman.pro na dysku aktualizacyjnym IBM, musisz zmienić następujący program, aby obniżyć BIOS RAID, oraz użyć dysków IBM RAID do obniżenia BIOS-u RAID. Sposób na to to najpierw pobrać aktualizację BIOS-u 4.84 Program.4.84 BIOS/firmare upgrade disk. Akta flashman.pro brzmią:
Rodzina firmware'u ServeRAID oraz profil narzędzia do pobierania BIOS-u Wydanie dysków: 4.84.01 . Format = [------ BIOS -------] [---- Firmware -----] [------ Boot -------] :Nazwa adaptera, nazwa obrazu, Rev#,Dsk#,Nazwa obrazu,Rev#,Dsk#,Nazwa obrazu,Rev#,Dsk#, . ----------------------------------------------------------------------------- . Typ: Serwis RAID, A: . Nieznany adapter :?,raid.img,99,1,codeblk.cph,99,2,bootblk.cph,0.00.00,1, . Copperhead Adapter :ServeRAID, raid.img,4.84.01,1,codeblk.cph,2.25.01,2,bootblk.cph,0.00.00,1, . ServeRAID na obrazie planarnym (Navajo) :ServeRAID1C1,raid.img,4.84.01,1,codeblk.nvj,2.88.13,2,bootblk.nvj,0.00.00,1, . Copperhead-Refresh Adapter :ServeRAID II,raid.img,4.84.01,1,codeblk.rf,2.88.13,2,bootblk.rf,0.00.00,1, . Copperhead-Refresh na strugarce (Kiowa) :ServeRAID2C2,raid.img,4.84.01,1,codeblk.rf,2.88.13,2,bootblk.rf,0.00.00,1, . Adapter do klarnetu :ServeRAID-3H, raid.img,7.84.01,1,codeblk.cln,7.84.01,1,bootblk.cln,0.00.00,1, . Adapter klarnet-Lite (obój) :ServeRAID-3L,raid.img,7.84.01,1,codeblk.cln,7.84.01,1,bootblk.cln,0.00.00,1, . Adapter do puzonu :ServeRAID-4H, raid.img,7.84.01,1,codeblk.trb,7.84.01,2,bootblk.trb,0.00.00,1, . Morpheus Adapter :ServeRAID-4M, raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.mor,0.00.00,1, . Morpheus-Lite Adapter :ServeRAID-4L,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.mor,0.00.00,1, . Neo Adapter :ServeRAID-4Mx, raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.neo,4.84.01,1, . Neo-Lite Adapter :ServeRAID-4Lx,raid.img,7.84.01,1,codeblk.neo,7.84.01,1,bootblk.neo,4.84.01,1,
Ta metoda polega na zmianie 4lx, raid.img, 4.84.01, 1 (zmiana na 7.84.01, 1), codedblk, neo, 4.84.01, 1 ((zmiana na 7.84.01, 1) i innych bez zmian; po aktualizacji BIOS-u okazuje się, że 6.10 nie jest wystarczająco wysoki, by zaktualizować do nowego BIOS-u 7.84 i faktycznie wygenerować 4.84. Nazywa się to jasnym wzrostem i ciemnym opadaniem. Po ponownym uruchomieniu karta RAID zgłasza błąd, co jest normalne, CATL+1 wprowadza kartę RAID i ponownie się inicjuje. Można to powtórzyć. Użyj dysku BIOS-u 4.84 z Internetu. Otwórz plik flashman.pro w Notatniku i go zmień. Jeśli upadnie. BIOS nadal nie obsługuje RAID albo dysk jest uszkodzony, podłącz kabel SCSI z płyty dyskowej do interfejsu SCSI płyty głównej, CATL+A skanuje dysk, żeby sprawdzić, czy przechodzi równomiernie, albo niektóre dyski OEM nie mogą zrobić RAID. Szkoda, więc nie ma potrzeby robić RAID. Oczywiście, posiadanie oryginalnego dysku twardego IBM jako RAID 0 to najlepsza weryfikacja. Pomogę ci, klucz należy do ciebie, żebyś ocenił sam. Są problemy Zadzwoń do mnie jeszcze raz. Mam dużo płyt RAID z RAID 3.0 |