|
Tekst/ITValue reporterka Wu Ningchuan Od pojawienia się w centrum uwagi w 2008 roku po niedawny kontrakt Amazona na chmurę obliczeniową Administracji Federalnej z Microsoftem, chmura przetwarzana przetrwała pełne siedem lat. W ciągu ostatnich 7 lat nowe technologie informacyjne, takie jak komputery mobilne, sieci społecznościowe i big data, oparte na pierwszej generacji technologii chmury obliczeniowej, zapoczątkowały nowy ruch biznesowy na globalnym rynku, tworząc spersonalizowane modele biznesowe, których podstawą są konsumenci i użytkownicy. Trend technologii Docker, który od zeszłego roku ogarnął rynek chmury, to duży krok naprzód dla przedsiębiorstw, które chcą zbliżyć się do konsumentów i użytkowników. Ten artykuł przedstawia dogłębną analizę tego, czym jest Docker i jak zrewolucjonizuje obliczenia w chmurze, inkubując tym samym modele biznesowe nowej generacji, które mogą uprzemysłowić produkcję spersonalizowanych produktów i usług. Czym jest Docker? Odpowiedź brzmi: Docker to następna generacja chmury obliczeniowej. Docker tłumaczy się na chiński jako "porter portowy", więc co przewozi "porter portowy"? Jest to standaryzowany "kontener", który zawiera aplikacje. "Porterzy terminali" mogą otrzymywać standaryzowane "kontenery" na dowolnym "terminalu" na świecie, które zapewniają ustandaryzowane połączenia, a następnie szybko instalować, uruchamiać i zarządzać aplikacjami w tych "kontenerach", a różni dostawcy usług chmurowych zapewniają standaryzowane połączenia do "terminali". W ten sposób Docker wprowadza rozwój i dystrybucję aplikacji w środowisku chmury obliczeniowej do ery produkcji przemysłowej, a właśnie tym właśnie Docker się zajmuje. W środowisku Dockera programiści tworzą programy zgodnie z określonymi standardami opakowań, a wyprodukowane standaryzowane programy są ładowane do standaryzowanych pojemników, które są "kontenerami". Dostawcy usług chmurowych na całym świecie oferują standaryzowane "doki", które mogą łatwo przyjmować standaryzowane kontenery i aplikacje, składać te standaryzowane aplikacje w własne, spersonalizowane rozwiązania w sposób plug-and-play, a następnie udostępniać je użytkownikom końcowym. Ustandaryzowana architektura programu odpowiadająca "kontenerowi" Dockera to znane mikroserwisy. W erze Dockera warstwa IaaS i warstwa PaaS w pierwszej generacji chmury połączyły się, tworząc Container-as-a-Service (CaaS), czyli nową generację architektury chmury. Architektura chmury obliczeniowej nowej generacji oparta na CaaS daje przedsiębiorstwom możliwość produkcji oprogramowania ogólnego przemysłowo, a następnie szybkiego składania oprogramowania ogólnego, tworząc spersonalizowane rozwiązania dostosowane do indywidualnych potrzeb konsumentów i użytkowników, co stanowi nową generację modelu biznesowego. Pionierzy ery kontenerów Według danych z II kwartału opublikowanych przez Synergy Research, amerykańską firmę zajmującą się badaniami rynku, w lipcu 2015 roku, globalny rynek usług chmurowych jest obecnie mocno zmonopolizowany przez czterech głównych dostawców: AWS Amazon Cloud, Microsoft, IBM i Google, którzy stanowią 54% globalnego udziału w rynku usług chmurowych, podczas gdy średni roczny wzrost biznesu chmurowego czterech głównych dostawców wynosi nawet 84%, podczas gdy roczny wzrost innych dostawców chmury na rynku wynosi zaledwie 33%. Wśród nich AWS Amazon Cloud wygenerował przychody w wysokości 1,82 miliarda dolarów w drugim kwartale tego roku, co stanowi wzrost o 81% rok do roku; Microsoft już zainwestował 15 miliardów dolarów w swoje globalne centra danych. Oczywiście, jako czterej główni producenci pierwszej generacji chmury obliczeniowej, zwłaszcza Google, Amazon i Microsoft, trzy główne chmury publiczne zostawiły innych dostawców usług chmurowych daleko w tyle, a ci trzej mocno ustanowili wzorzec rynkowy pierwszej generacji chmury publicznej. W 2014 i na początku 2015 roku chińscy eksperci techniczni z głównych zespołów technicznych pierwszej generacji głównych dostawców usług chmury publicznej zaczęli opuszczać swoje pierwotne firmy i wracać do krajowego biznesu kontenerowego/Docker. Należą do nich Lingque Cloud z zespołu Microsoft ds. technologii Windows Azure, Digital Cloud z działu technologii reklamowej Google, DaoCloud z zespołów EMC i VMware, Hourspeed Cloud z IBM Bluemix i zespołu technologii Alibaba Cloud Shield oraz Hyper Cloud z zespołu technologii chmury w China Mobile Research Institute. Wspólną cechą tych startupów jest to, że założyciele pochodzą z podstawowego zespołu technicznego pierwszej generacji chmury publicznej – z jednej strony uznali kontenery/Docker za główny trend nowej generacji chmury, a z drugiej strony odeszli z pierwotnej firmy, ponieważ pierwsza generacja chmury publicznej praktycznie dojrzała. "Dlaczego talenty chmurowe są w Seattle? Wynika to z faktu, że Amazon Cloud i Microsoft są w Seattle, a techniczne możliwości chmury obliczeniowej wynikają głównie z doświadczenia w obsłudze i utrzymaniu systemu, a tylko trzech technicznych specjalistów z doświadczeniem w obsłudze i utrzymaniu ponad miliona serwerów: Google, Amazon Cloud i Microsoft. Zuo Yue, założyciel Lingque Cloud i były szef projektu kontenerowego rdzenia technicznego Microsoft Windows Azure US, powiedział. Chen Kai, współzałożyciel i CTO Lingque Cloud, również pochodzi z podstawowego zespołu technicznego Microsoft Windows Azure w Stanach Zjednoczonych i odpowiadał za globalny system harmonogramowania Windows Azure, Fabric Controller. Wang Pu, założyciel innej cyfrowej chmury, pochodzi z głównego zespołu technicznego Google w USA i powiedział dziennikarzom, że Google ma największą liczbę serwerów spośród dostawców usług publicznych na świecie, a Google, założone w 1998 roku, obsługuje i utrzymuje dziesiątki milionów serwerów na całym świecie; następnie AWS i Microsoft Windows Azure, każdy posiadający i obsługujący miliony serwerów; po trzecie, IBM SoftLayer posiada i obsługuje setki tysięcy serwerów; Wreszcie, regionalni dostawcy usług chmury publicznej w różnych krajach posiadają, obsługują i utrzymują serwery w zakresie od setek do tysięcy, a doświadczenie w eksploatacji i utrzymaniu oraz poziom techniczny dostawców usług chmury publicznej można bezpośrednio ocenić na podstawie skali serwerów operacyjnych i utrzymaniowych. Ewolucja w erze pojemników Czym jest pojemnik? To musi być informacja o osobie i firmie. Tą osobą jest słynny drugi i ostatni główny architekt Microsoftu, Ray Ozzie. W październiku 2005 roku Ray Ozzie, który właśnie dołączył do Microsoftu, opublikował memorandum zatytułowane "The Internet Services Disruption", które miało przede wszystkim promować ogólną transformację Microsoftu w kierunku usług internetowych. W tym artykule Ray Ozzie proponuje słynne "bezproblemowe doświadczenie użytkownika" możliwe dzięki architekturze oprogramowania zorientowanego na usługi i interpretuje je jako "płynną komunikację", "płynną produktywność", "bezproblemową rozrywkę", "bezproblemowy rynek", "bezproblemowy system", "bezproblemowy system operacyjny", "bezproblemowe rozwiązanie" oraz "bezproblemowe IT", których rdzeniem są "bezproblemowy system operacyjny", "rozwiązanie bezproblemowe" oraz "bezproblemowe IT". Google jest pionierem, jeśli chodzi o "bezproblemowe systemy operacyjne", "bezproblemowe rozwiązania" i "bezproblemowe IT". Chen Hao, znany bloger, były menedżer ds. badań i rozwoju Amazon China oraz starszy ekspert Alibaba, ma żywą metaforę: cloud computing "to prowadzenie Mercedesa-Benz samochodem Xiali". Google to zagorzały gracz, który wypchnął "Xiali z Mercedesa-Benz", twierdząc, że jest to firma internetowa i twórca technologii internetowej. Wang Pu powiedział, że Google obsługiwało i utrzymywało dziesiątki milionów serwerów na całym świecie, co znacznie przekroczyło górne granice wielu istniejących dostawców technologii, więc samo Google wynalazło wiele technologii do zarządzania dziesiątkami milionów serwerów, "Na przykład Google opracowało najwyższej klasy przełącznik sieciowy, a nawet Cisco nie jest w stanie zbudować takiego przełącznika sieciowego." Powód jest prosty – nie istnieje odpowiednie środowisko eksperymentalne. Od momentu powstania w 1998 roku Google opracowało i zgromadziło wiele "technologii na poziomie bomby jądrowej", ale większość z tych technologii została zablokowana przez Google i można je znaleźć jedynie w publikacjach naukowych opublikowanych przez Google. Aby uniknąć użycia kosztownych fizycznych produktów wirtualizacyjnych opartych na maszynach na rynku, a jednocześnie szybciej i taniej udostępnić własne oprogramowanie i usługi, Google od początku opracowało nową technologię wirtualizacji opartej na kontenerach, dzięki której upraszcza środowisko systemu operacyjnego wymagane do działania wszystkich usług Google. Na konferencji CNUTCon Global Container Technology Conference w sierpniu 2015 roku Dawn Chen, inżynier oprogramowania Google Cloud Platform z ponad 8-letnim doświadczeniem w Google, powiedziała, że gdy dołączyła do Google osiem i pół roku temu, gdy Google dopiero zaczynało rozwijać technologię kontenerową, w zespole Google były tylko dwie osoby plus ona. Obecnie wszystkie usługi Google działają w kontenerach, w tym Gmail, Maps, system plików GFS, MapReduce i inne. Google obecnie uruchamia około 7 000 kontenerów na sekundę i wypuszcza ponad 2 miliardy kontenerów tygodniowo. Google faktycznie zrealizowało wizję "płynnego systemu operacyjnego" z kontenerami. Każdy, kto zna się trochę na chmurze, wie, jak ważne są maszyny wirtualne na warstwie IaaS, a zmiana sposobu działania maszyn wirtualnych oznacza zmianę struktury warstwy IaaS, dlatego kontenery są nową generacją modeli chmury. Kontenery to zasadniczo technologia systemu operacyjnego, czyli technologia wirtualizacji oparta na systemie operacyjnym. Oprogramowanie aplikacyjne oparte na kontenerach może osiągnąć efekt "jednego miejsca do rozwoju, działającego wszędzie", niezależnie od rodzaju systemu operacyjnego lub środowiska usług chmurowych IaaS, co jest w rzeczywistości koncepcją "bezproblemowego systemu operacyjnego", co odpowiada "bezproblemowym rozwiązaniom" i "bezproblemowemu IT". Docker jednoczy kontenery na całym świecie Kontener i Docker to dwa angielskie słowa, a Docker jest odpowiednikiem standaryzowanego kontenera, co jest najnowszym efektem rozwoju technologii kontenerowej w ciągu ostatnich 30 lat. Jako technologia wirtualizacji na poziomie systemu operacyjnego, sama technologia kontenerowa sięga 1982 roku. W tamtym czasie technologia Chroot wprowadzona przez Unixa była uznawana za początek wirtualizacji na poziomie systemu operacyjnego, która jest najwcześniejszym etapem technologii kontenerowej. Następnie technologia wirtualizacji systemów operacyjnych została powiązana z jądrem Linuksa oraz rozwojem systemu operacyjnego Linux. Ponieważ wirtualizacja systemów operacyjnych jest skierowana głównie do tanich serwerów x86, rozwój technologii chipów serwerowych przez Intela i AMD również wpłynął na rozwój technologii kontenerowej. W 1991 roku Linus Torvalds, doktorant Uniwersytetu Helsińskiego w Finlandii, opracował jądro Linuksa dla maszyny 386. Na bazie jądra Linux różni producenci opracowali komercyjnie dostępne systemy operacyjne Linux. W styczniu 1995 roku powstał RedHat, uruchamiając RedHat Linux, "dystrybucję" Linuksa. Następnie jądro Linuksa było nieustannie aktualizowane i dopiero w 2007 roku do jądra Linux pojawiła się dojrzalsza technologia kontenerowa, która również korzystała z 64-bitowych układów serwerowych wprowadzonych przez Intel i AMD około 2005 roku. To właśnie dzięki znacznemu wzrostowi pojemności procesora i układu pamięci można wirtualizować wiele przestrzeni w jednym systemie operacyjnym. W 2008 roku powstał projekt LXC, czyli Linux kontener open source, a technologia kontenerowa zaczęła być szeroko stosowana w branży, a Microsoft uruchomił także pierwszą generację publicznej chmury Windows Azure. W 2010 roku w Stanach Zjednoczonych powstał startup dotCloud, początkowo platforma PaaS oparta na technologii LXC, której koncepcją było zapewnienie platformy chmurowej rozwojowej obejmującej podstawową chmurę IaaS i obsługującej wiele języków programistycznych. Na początku 2011 roku dotCloud pozyskał 10 milionów dolarów z finansowania serii A. DotCloud początkowo działał na AWS EC2, ale wraz z pojawieniem się coraz większej liczby dostawców chmury publicznej, koncepcja dotCloud stała się trudna do wdrożenia przy użyciu własnej technologii jednej firmy. W rezultacie założyciele dotCloud uprościli i ustandaryzowali technologię kontenerową opartą na LXC, nazwali ją Docker, otworzyli i uruchomili Open Container Program (OCI), który szybko zyskał popularność wśród Dockera i społeczności open source Dockera. 29 października 2013 roku dotCloud został przemianowany na Docker. Następnie kilku dostawców zaczęło zapowiadać wsparcie dla Dockera. Na sierpień 2015 roku aplikacja do pakietów kontenerów publicznych Registry (utrzymywana przez Docker) opublikowała ponad 180 000 zgłoszeń w społeczności publicznej. Można powiedzieć, że serwery PC o architekturze X86 są zwycięzcami heterogenicznych architektur sprzętowych, Linux i Windows są zwycięzcami heterogenicznych systemów operacyjnych, a Docker zapewnia zunifikowany wirtualny system operacyjny dla centrów danych w chmurze oparty na serwerach X86 i systemach Linux/Windows, a era architektury heterogenicznej zaczyna się kończyć. Nadszedł czas kontenerów Oprócz startupów, duzi producenci nie chcą pozostać w tyle i szybko podjęli działania. W październiku ubiegłego roku Microsoft ogłosił plany wdrożenia technologii kontenerowej na Windows Server, ogłaszając partnerstwo z Dockerem, które zagwarantuje jednolite i otwarte doświadczenie zarówno na Linuksie, jak i Windows Server. Chociaż kontenery Linuksa i Windows są ze sobą niekompatybilne ze względu na różne systemy operacyjne, menedżery kontenerów są zjednoczone. Niedawno Microsoft ogłosił również, że wypuści kontenery Windows Server oraz Hyper-V dla Windows Server 2016, które obsługują API Docker oraz klienta Docker. VMWare, kolejna firma, która mocno ucierpiała przez Dockera, również nie mogła się doczekać, by ogłosić wsparcie dla Dockera na VMWare World 2014. Podejście VMware do kontenerów jest pozytywne, a pomimo konkurencji między kontenerami a fizycznymi maszynowymi maszynami wirtualnymi, VMware pozostaje zaangażowane w rozszerzanie współpracy z ekosystemem kontenerów. Na VMWare World 2015 pod koniec sierpnia 2015 roku VMware wprowadziło serię nowych technologii obsługujących Dockera i zaproponowało nową architekturę techniczną umożliwiającą w pełni obsługę kontenerów w przyszłości, umożliwiającą uruchamianie programów Dockera w maszynach wirtualnych. Ponadto AWS Amazon Cloud uruchomił w listopadzie ubiegłego roku AWS ECS, usługę kontenerową EC2, która pozwala użytkownikom nie instalować, nie eksploatować i nie rozbudowywać infrastruktury zarządzania klastrami, ale może zacząć i przestać wspierać aplikacje Docker za pomocą prostych wywołań API. Huawei zawsze był aktywnym sponsorem różnych projektów open source, fundacji, organizacji i szczytów. W 2015 roku Huawei dołączył do OCI oraz Cloud Native Computing Foundation (CNCF) jako członek założyciel, stając się jedyną chińską firmą na tej liście. Liang Chenye, starszy inżynier ds. badań i rozwoju w Open Source Competence Center Huawei, powiedział na konferencji CNUT Global Container Conference 2015, że Huawei aktywnie uczestniczy w projekcie Open Container Test Project (OCT) i współpracuje z organizacją OCI na rzecz promowania wdrażania i popularyzacji standardów otwartych kontenerów. Od 2015 roku Huawei plasuje się wśród trzech najlepszych pod względem wkładu w społeczność Docker, a pierwszym opiekunem społeczności Dockera w Chinach jest firma Huawei. Oprócz krajowych dostawców usług chmurowych, takich jak Huawei i Alibaba, krajowe firmy internetowe, takie jak Tencent, Baidu, 360, JD.com i Sohu, zaczęły w pełni stosować technologię kontenerową od 2011 roku. Według Liu Haifenga, głównego architekta JD Cloud Platform, na konferencji CNUT Global Container Conference w 2015 roku JD.com zaczął wprowadzać Docker w październiku 2014 roku, zrealizował strategiczny projekt dla Dockera w lutym 2015 roku, wypuścił ponad 11 000 instancji kontenerów w środowisku produkcyjnym i połączył się z ponad 1 000 aplikacji w 2015 roku na poziomie 618, a od sierpnia 2015 roku w pełni wdrożył technologię kontenerową w nowym centrum danych. Obecnie JD.com uruchomiło ponad 20 000 instancji Docker, a ich liczba ma się podwoić do końca roku, kiedy większość aplikacji JD.com zostanie udostępniona przez Dockera. W przyszłości wizją JD.com Docker jest zarządzanie wszystkimi maszynami przez Docker, pełne oddzielenie aplikacji od zasobów fizycznych, osiągnięcie w pełni zautomatyzowanej konserwacji systemów, a pracownicy ds. badań i rozwoju mogą skupić się na tworzeniu nowych aplikacji. Mówiąc tyle rzeczy,W rzeczywistości Google jest największym dostawcą kontenerów.Technologia Dockera została napisana w języku Google Go, drugim open source języku programowania wydanym przez Google w 2009 roku. Google co tydzień udostępnia ponad 200 milionów kontenerów, dając mu możliwość tworzenia wielu kluczowych technologii kontenerowych. Obejmowało to system zarządzania kontenerami, którego pierwsza wersja nosiła nazwę Borg, a następnie Omega. Ten system zarządzania pozwala na wykorzystanie technologii kontenerowej na dużych zasobach klastrów Google. Później, według odpowiednich artykułów naukowych Google, branża ta naśladowała system Mesos opracowany przez Borg, który jest wykorzystywany przez Airbnb, Twittera, Siri Apple i inne. Biznes spersonalizowany: Przedsiębiorstwa przyszłości to firmy programistyczne Douglas M. Baker Jr., przewodniczący i dyrektor generalny Fortune 500 Ecolab, powiedział w badaniu przeprowadzonym przez PwC w ramach Global CEO Survey 2015: "Żadna firma nie może zakładać, że dzisiejszy biznes zagwarantuje przyszły sukces. Przyjmuje się za oczywiste, że duże firmy są bezpieczniejsze i bardziej stabilne, ale ostatnie 50 lat udowodniło coś przeciwnego. Jeśli przedsiębiorstwo nie będzie w stanie dalej dynamicznie się zmieniać, ryzyko może tylko wzrosnąć, a nie zmniejszyć. ” Zdolność do zmiany stała się oczywiście podstawową konkurencyjnością przyszłego biznesu. W miarę jak wpływ branży internetowej staje się coraz większy, inwazja internetu na tradycyjne branże staje się coraz bardziej intensywna i głębsza, zwłaszcza dzięki silnemu wprowadzeniu chińskiej strategii narodowej "Internet +", a przyszłe przedsiębiorstwa będą coraz bardziej internetizowane. W tak całkowicie internetowym środowisku biznesowym przyszłe przedsiębiorstwa będą dysponować mniej lub bardziej możliwościami programistycznymi. Oprócz tego, że w przyszłości biznes korporacyjny będzie częściowo lub całkowicie zorganizowany w Internecie, przedsiębiorstwa będą również polegać na możliwościach oprogramowania, aby świadczyć spersonalizowane usługi konsumentom i użytkownikom. Jeśli przedsiębiorstwa przyszłości to przedsiębiorstwa programistyczne, można sobie wyobrazić, jak ważne jest Docker.W połowie 2015 roku Adrian Cockcroft, ekspert technologiczny z Battery Vetures, doświadczonej firmy venture capital z Doliny Krzemowej, opublikował 2015 Cloud White Paper: A Review of Industry Milestones and Future Prospects, były architekt platform chmurowych w Netflix, byłej usłudze streamingowej w Stanach Zjednoczonych oraz współzałożyciel eBay Research Labs i Sun Microsystems Wybitny inżynier i główny architekt działu wysokowydajnych obliczeń technicznych. Wierzy, że Docker stopniowo stanie się ustandaryzowanym narzędziem produkcyjnym, co odzwierciedla także wysoką akceptację Dockera z jednej strony. Adrian mówi, że wyzwaniem w Dockerze jest staranne zarządzanie ekosystemem przy jednoczesnym szybkim dodawaniu funkcji wspierających wdrożenia produkcyjne. Jak dotąd Docker zapobiegł podziałowi ekosystemu. Dziś nawet producent chipów Intel, dołączył do ekosystemu Docker. W maju Intel uruchomił Clear Linux, projekt systemu operacyjnego skoncentrowany na kontenerach, który obecnie jest w fazie eksperymentalnej, a Intel zapowiada, że system ten będzie dostępny w środowiskach produkcyjnych w przyszłości. Widać, że w procesie zmierzania ku przyszłości biznesu pojawi się coraz więcej zachowań transgranicznych. Według Thomson Reuters, tylko w listopadzie 2014 roku w Stanach Zjednoczonych odnotowano 10 330 fuzji i przejęć, co stanowi łączną wartość transakcji na poziomie 1,9 biliona dolarów. Te fuzje i przejęcia mają na celu rozszerzenie sojuszy biznesowych i tworzenie wartości biznesowej, której nie da osiągnąć jedna firma poprzez fuzje lub przejęcia firm o różnych biznesach lub możliwościach. Według Global CEO Survey Report PwC z 2015 roku, około 44% prezesów w Stanach Zjednoczonych założy nowy strategiczny sojusz w ciągu 12 miesięcy od badania. W przeszłości sojusze biznesowe polegały głównie na nawiązywaniu kontaktu z dostawcami lub użytkownikami, ale w przyszłości coraz więcej prezesów będzie decydować się na nawiązywanie sojuszy z konkurentami, startupami lub firmami z różnych dziedzin. Oczywiście wielu ekspertów technicznych Docker, w tym Sun Hongliang, członek podstawowego zespołu DaoCloud, wielokrotnie podkreślało, że Docker jest wciąż na wczesnym etapie rozwoju, z wyzwaniami takimi jak słabe funkcje sieciowe, bezpieczeństwo oraz trudności w prowadzeniu tradycyjnych biznesów. To właśnie dzięki tym technicznym niedojrzałościom powstało wiele startupów Docker w Stanach Zjednoczonych i Chinach, z których każdy pokazuje własne możliwości i ma odwagę zaprojektować kolejną generację chmury obliczeniowej i biznesu nowej generacji. Zespół zajmujący się chmurą obliczeniową z Software Engineering Lab (SEL) Uniwersytetu Zhejiang, jednego z pierwszych w Chinach zajmujących się badaniami nad kontenerami i Dockerami, został utworzony w 2011 roku w celu budowy, analizy i badania technologii open source chmury. W swojej nowej książce "Docker – Containers and Container Cloud" zespół SEL z Uniwersytetu Zhejiang pisze: "Docker, który opiera się na technologii kontenerowej, szybko stał się skarbem w rękach największych producentów i deweloperów chmury obliczeniowej w kraju i za granicą. Wśród upałów cicho nadeszła nowa rewolucja. ”
|