Cet article est un article miroir de traduction automatique, veuillez cliquer ici pour accéder à l’article original.

Vue: 12392|Répondre: 1

La prochaine génération de modèles de cloud computing : Docker révolutionne le commerce personnalisé

[Copié le lien]
Publié sur 25/09/2015 15:30:42 | | | |
Text/ITValue reporter Wu Ningchuan
Depuis son entrée sous les projecteurs en 2008 jusqu’au récent contrat de 100 millions de dollars d’Amazon avec Microsoft avec l’administration fédérale, l’informatique en nuage a traversé sept années complètes. Au cours des sept dernières années, de nouvelles technologies de l’information telles que l’informatique mobile, les réseaux sociaux et le big data basés sur la première génération de technologies de cloud computing ont lancé un nouveau mouvement commercial dans le domaine mondial des affaires, créant des modèles d’affaires personnalisés avec consommateurs et utilisateurs comme cœur central.
La tendance technologique Docker, qui a envahi le secteur du cloud computing depuis l’année dernière, représente un grand pas en avant pour les entreprises afin de se rapprocher des consommateurs et des utilisateurs. Cet article propose une analyse approfondie de ce qu’est Docker et de la manière dont il transformera l’informatique en nuage, incubant ainsi des modèles économiques de nouvelle génération capables d’industrialiser la production de produits et services personnalisés.
   Qu’est-ce que Docker ?
La réponse est : Docker est la prochaine génération de cloud computing.
Docker se traduit en chinois par « porteur de quai », alors que signifie « porteur de quai » ? C’est un « conteneur » standardisé, et ce « conteneur » standardisé contient des applications. Les « porteurs de terminaux » peuvent recevoir des « conteneurs » standardisés dans n’importe quel « terminal » dans le monde qui fournissent des connexions standardisées, puis installer, exécuter et gérer rapidement des applications dans les « conteneurs », et ce sont divers fournisseurs de services cloud qui fournissent des connexions standardisées aux « terminaux ». De cette manière, Docker introduit le développement et la distribution d’applications dans l’environnement du cloud computing à l’ère de la production industrielle, qui est précisément le but de Docker.
Dans l’environnement Docker, les développeurs de programmes produisent des programmes selon certaines normes d’emballage, et les programmes standardisés produits sont chargés dans des conteneurs standardisés, qui sont des « conteneurs ». Les fournisseurs de services cloud du monde entier proposent des « docks » standardisés qui peuvent facilement recevoir des conteneurs et applications standardisés, assembler ces applications standardisées en leurs propres solutions personnalisées de manière plug-and-play, puis les fournir aux utilisateurs finaux. L’architecture standardisée du programme correspondant au « conteneur » Docker est les microservices familiers.
À l’ère Docker, la couche IaaS et la couche PaaS de la première génération de l’informatique en nuage ont fusionné en une seule pour former le Conteneur-as-a-Service (CaaS), qui est la prochaine génération d’architecture de cloud computing. L’architecture de cloud computing de nouvelle génération basée sur le CaaS donne aux entreprises la capacité de produire des logiciels généraux à l’industrie, puis d’assembler rapidement des logiciels généraux pour créer des solutions personnalisées selon les besoins individuels des consommateurs et des utilisateurs, ce qui constitue la prochaine génération de modèle économique.
   Pionniers de l’ère des conteneurs
Selon les données du deuxième trimestre publiées par Synergy Research, une société américaine d’études de marché, en juillet 2015, le marché mondial des services cloud est désormais solidement monopolisé par les quatre principaux fournisseurs : AWS Amazon Cloud, Microsoft, IBM et Google qui représentent 54 % de la part de marché mondiale des services cloud, tandis que la croissance annuelle moyenne de l’activité cloud computing des quatre principaux fournisseurs atteint jusqu’à 84 %, contre une croissance annuelle de seulement 33 % pour les autres fournisseurs de cloud computing. Parmi eux, AWS Amazon Cloud a généré un chiffre d’affaires de 1,82 milliard de dollars au deuxième trimestre de cette année, soit une augmentation de 81 % en glissement annuel ; Et Microsoft a déjà investi 15 milliards de dollars dans ses centres de données mondiaux. Évidemment, en tant que quatre grands fabricants de l’industrie de la première génération de l’informatique en nuage, en particulier Google, Amazon et Microsoft, les trois principaux clouds publics ont largement laissé derrière, et ces trois ont solidement établi le modèle de marché de la première génération de cloud public.
En 2014 et début 2015, des experts techniques chinois des équipes techniques principales de la première génération de fournisseurs de services cloud publics grand public ont commencé à quitter leurs entreprises d’origine pour retourner dans le domaine entrepreneurial national des conteneurs/Docker. Parmi ceux-ci figurent Lingque Cloud de l’équipe technologique centrale Windows Azure de Microsoft, Digital Cloud du département technologique central de la publicité de Google, DaoCloud des équipes technologiques centrales EMC et VMware, Hourspeed Cloud de l’équipe technologique centrale d’IBM Bluemix et Alibaba Cloud Shield, ainsi que Hyper Cloud de l’équipe technologie cloud computing de l’Institut chinois de recherche mobile.
La caractéristique commune de ces startups est que les fondateurs viennent tous de l’équipe technique centrale de la première génération de cloud public ; d’une part, ils ont trouvé que les conteneurs/Docker étaient la tendance dominante de la prochaine génération de cloud computing, et d’autre part, ils ont quitté l’entreprise d’origine parce que la première génération de cloud public a pratiquement mûri. « Pourquoi le talent en cloud computing est à Seattle ? Cela s’explique par le fait qu’Amazon Cloud et Microsoft sont tous deux à Seattle, et que les capacités techniques de l’informatique cloud proviennent principalement de l’expérience d’exploitation et de maintenance, et qu’il n’y a que trois talents techniques ayant une expérience dans l’exploitation et la maintenance de plus d’un million de serveurs : Google, Amazon Cloud et Microsoft. Zuo Yue, fondateur de Lingque Cloud et ancien responsable du projet conteneur de l’équipe technique principale de Microsoft Windows Azure aux États-Unis, a déclaré. Chen Kai, cofondateur et CTO de Lingque Cloud, est également issu de l’équipe technique principale de Microsoft Windows Azure aux États-Unis et était responsable du système mondial de planification Fabric Controller de Windows Azure.
Wang Pu, fondateur d’un autre cloud numérique, fait partie de l’équipe technique principale de l’activité publicité de Google aux États-Unis, et il a déclaré aux journalistes que Google possède le plus grand nombre de serveurs parmi les fournisseurs de services publics au monde, et que Google, fondé en 1998, exploite et maintient des dizaines de millions de serveurs à travers le monde ; suivie d’AWS et Microsoft Windows Azure, chacun possédant et exploitant des millions de serveurs ; troisièmement, IBM SoftLayer possède et exploite des centaines de milliers de serveurs ; Enfin, les fournisseurs régionaux de services cloud publics dans divers pays possèdent, exploitent et maintiennent des serveurs allant de centaines à des milliers de serveurs, et l’expérience opérationnelle et maintenance ainsi que le niveau technique des fournisseurs de services cloud publics peuvent être jugés directement à partir de l’échelle des serveurs d’exploitation et de maintenance.
   Évolution vers l’ère des contenants
Qu’est-ce qu’un conteneur ? Cela doit mentionner une personne et une entreprise.
Cette personne est le célèbre deuxième et dernier architecte en chef de Microsoft, Ray Ozzie. En octobre 2005, Ray Ozzie, qui venait de rejoindre Microsoft, a publié un mémorandum intitulé « La disruption des services Internet », principalement destiné à promouvoir la transformation globale de Microsoft vers les services Internet. Dans cet article, Ray Ozzie propose la célèbre « expérience utilisateur fluide » rendue possible par l’architecture logicielle orientée service et l’interprète comme « communication fluide », « productivité sans faille », « divertissement sans couture », « marché sans couture », « système d’exploitation sans couture », « solution sans couture » et « informatique sans couture », dont le cœur est le « système d’exploitation sans couture », la « solution sans couture » et « l’informatique sans faille ».
Google est un pionnier en matière de « systèmes d’exploitation fluides », de « solutions transparentes » et de pratiques « informatiques fluides ». Chen Hao, blogueur célèbre, ancien responsable R&D d’Amazon Chine et expert senior d’Alibaba, a une métaphore saisissante : le cloud computing « consiste à conduire une Mercedes-Benz avec une voiture Xiali ». Google est l’acteur inconditionnel qui a chassé « Xiali de Mercedes-Benz », affirmant qu’il s’agit d’une entreprise Internet et de l’initiateur de la technologie Internet. Wang Pu a déclaré que Google a exploité et maintenu des dizaines de millions de serveurs à travers le monde, ce qui dépasse largement la limite supérieure de nombreux fournisseurs de technologies existants, donc Google lui-même a inventé de nombreuses technologies pour gérer des dizaines de millions de serveurs, « Par exemple, Google a développé un commutateur réseau de premier ordre, et même Cisco ne peut pas construire un tel commutateur réseau. » La raison est simple : il n’existe pas d’environnement expérimental correspondant. Depuis sa création en 1998, Google a développé et stocké de nombreuses « technologies de qualité bombe nucléaire », mais la plupart de ces technologies ont été bloquées par Google et ne peuvent être trouvées que via des articles académiques publiés par Google.
Afin d’éviter l’utilisation de produits de virtualisation physiques coûteux basés sur machine sur le marché, et en même temps de lancer ses propres logiciels et services plus rapidement et à moindre coût, Google a développé dès le départ une nouvelle technologie de virtualisation basée sur conteneurs, qui simplifie l’environnement du système d’exploitation sous-jacent nécessaire au fonctionnement de tous les services Google. Lors de la conférence mondiale CNUTCon sur la technologie des conteneurs en août 2015, Dawn Chen, ingénieure logicielle sur Google Cloud Platform avec plus de huit ans d’expérience chez Google, a déclaré que lorsqu’elle a rejoint Google il y a huit ans et demi, alors que Google commençait tout juste à développer la technologie des conteneurs, il n’y avait que deux personnes dans l’équipe technologie des conteneurs de Google plus elle. Aujourd’hui, tous les services de Google fonctionnent dans des conteneurs, y compris Gmail, Maps, le système de fichiers GFS, MapReduce, et bien d’autres. Google lance désormais environ 7 000 conteneurs par seconde et en publie plus de 2 milliards par semaine.
Google a en fait réalisé la vision d’un « système d’exploitation fluide » avec des conteneurs. Quiconque connaît un peu l’informatique en nuage connaît l’importance des machines virtuelles à la couche IaaS, et changer la façon dont les machines virtuelles fonctionnent revient à modifier la structure de la couche IaaS, ce qui explique pourquoi les conteneurs sont la prochaine génération de modèles d’informatique en nuage. Les conteneurs sont essentiellement une technologie de système d’exploitation, c’est-à-dire une technologie de virtualisation basée sur un système d’exploitation. Les logiciels applicatifs développés à partir de conteneurs peuvent obtenir l’effet de « un seul endroit pour développer, exécuter partout », quel que soit le type de système d’exploitation ou d’environnement de services cloud IaaS sous-jacent, ce qui correspond en réalité au concept de « système d’exploitation sans interruption », correspondant à « solutions sans interruption » et « TI sans interruption ».
   Docker unifie les conteneurs du monde entier
Conteneur et Docker sont deux mots anglais, et Docker est équivalent à un conteneur standardisé, qui est le dernier résultat du développement de la technologie des conteneurs au cours des 30 dernières années.
En tant que technologie de virtualisation au niveau du système d’exploitation, la technologie des conteneurs elle-même remonte à 1982. À cette époque, la technologie Chroot introduite par Unix est reconnue comme l’origine de la virtualisation au niveau du système d’exploitation, qui constitue le tout premier état de la technologie des conteneurs. Par la suite, la technologie de virtualisation des systèmes d’exploitation s’est entremêlée avec le noyau Linux et le développement du système d’exploitation Linux. Comme la virtualisation des systèmes d’exploitation vise principalement les serveurs x86 bon marché, le développement de la technologie des puces serveur par Intel et AMD a également influencé le développement de la technologie des conteneurs.
En 1991, Linus Torvalds, étudiant diplômé à l’Université d’Helsinki en Finlande, a développé un noyau Linux pour la machine 386. Sur la base du noyau Linux, différents fabricants ont développé des systèmes d’exploitation Linux disponibles dans le commerce. En janvier 1995, RedHat a été fondé, lançant RedHat Linux, une « distribution » Linux. Par la suite, le noyau Linux a été continuellement mis à jour, et ce n’est qu’en 2007 que la technologie conteneur plus mature est entrée dans le noyau Linux, qui a également bénéficié des puces serveur 64 bits lancées par Intel et AMD vers 2005. C’est précisément grâce à l’augmentation significative de la capacité du processeur et des puces mémoire que plusieurs espaces peuvent être virtualisés dans un même système d’exploitation. En 2008, LXC, ou projet open source Linux conteneur, a été créé, et la technologie conteneur a commencé à être largement utilisée dans l’industrie, Microsoft a également lancé la première génération de cloud public Windows Azure.
En 2010, une startup appelée dotCloud a été créée aux États-Unis, dotCloud était initialement une plateforme PaaS basée sur la technologie LXC, et son concept était de fournir une plateforme cloud de développement couvrant le cloud IaaS sous-jacent et prenant en charge plusieurs langages de développement. Début 2011, dotCloud a levé 10 millions de dollars en financement de série A. DotCloud fonctionnait initialement sur AWS EC2, mais à mesure que de nouveaux fournisseurs de cloud public arrivaient sur le marché, le concept de dotCloud était difficile à mettre en œuvre avec la technologie propriétaire d’une seule entreprise. En conséquence, les fondateurs de dotCloud ont simplifié et standardisé la technologie des conteneurs basée sur LXC, l’ont nommée Docker et l’ont ouverte, et ont lancé le Open Container Program (OCI), qui est rapidement devenu populaire auprès de Docker et de la communauté open source Docker. Le 29 octobre 2013, dotCloud a été renommé Docker. Par la suite, plusieurs fournisseurs ont commencé à annoncer leur soutien à Docker. En août 2015, le registre des demandes de paquets de conteneurs publics (maintenu par Docker) avait publié plus de 180 000 demandes dans la communauté publique.
On peut dire que les serveurs PC à architecture X86 sont les gagnants des architectures matérielles hétérogènes, Linux et Windows sont les gagnants des systèmes d’exploitation hétérogènes, et Docker fournit un système d’exploitation virtuel unifié pour les centres de données cloud basé sur des serveurs X86 et des systèmes d’exploitation Linux/Windows, et l’ère de l’architecture hétérogène commence à prendre fin.
   L’ère des conteneurs est arrivée
En plus des startups, les grands fabricants ne sont pas en reste et ont rapidement suivi leur initiative. En octobre dernier, Microsoft a annoncé son intention de mettre en place la technologie conteneur sur Windows Server, annonçant un partenariat avec Docker pour garantir une expérience unifiée et ouverte sur Linux et Windows Server. Bien que les conteneurs Linux et Windows soient incompatibles entre eux selon des systèmes d’exploitation différents, les gestionnaires de conteneurs sont unifiés. Récemment, Microsoft a également annoncé qu’elle publierait des conteneurs Windows Server et Hyper-V pour Windows Server 2016, tous deux compatibles avec l’API Docker et le client Docker.
VMWare, une autre entreprise durement touchée par Docker, avait également hâte d’annoncer son soutien à Docker lors de VMWare World 2014. L’approche de VMware envers les conteneurs est positive, et malgré la concurrence entre conteneurs et VM physiques basées sur machines, VMware reste engagée à étendre sa collaboration avec l’écosystème des conteneurs. Lors de VMWare World 2015, fin août 2015, VMware a introduit une série de nouvelles technologies compatibles Docker et proposé une nouvelle architecture technique pour supporter pleinement les conteneurs à l’avenir, permettant aux programmes Docker de s’exécuter dans des machines virtuelles virtuelles.
De plus, AWS Amazon Cloud a lancé AWS ECS, un service conteneur EC2, en novembre dernier, permettant aux utilisateurs de ne plus installer, exploiter et étendre l’infrastructure de gestion de cluster, mais de commencer ou arrêter de supporter les applications Docker avec de simples appels API.
Huawei a toujours été un sponsor actif de divers projets open source, fondations, organisations et sommets. En 2015, Huawei a rejoint OCI et la Cloud Native Computing Foundation (CNCF) en tant que membre fondateur, devenant la seule entreprise chinoise figurant sur cette liste. Liang Chenye, ingénieur principal en R&D au Centre de compétence Open Source de Huawei, a déclaré lors de la CNUT Global Container Conference 2015 que Huawei participe activement au Open Container Test Project (OCT) et travaille avec l’organisation OCI pour promouvoir la mise en œuvre et la popularisation des standards open container. Depuis 2015, Huawei figure parmi les trois premiers en termes de contribution à la communauté Docker, et le premier mainteneur de la communauté Docker en Chine est celui de Huawei.
En plus des fournisseurs de services cloud domestiques tels que Huawei et Alibaba, des entreprises Internet domestiques telles que Tencent, Baidu, 360, JD.com et Sohu ont commencé à pratiquer pleinement la technologie des conteneurs depuis 2011. Selon Liu Haifeng, architecte en chef de JD Cloud Platform, lors de la CNUT Global Container Conference 2015, JD.com commencé à introduire Docker en octobre 2014, réalisé un projet stratégique pour Docker en février 2015, libéré plus de 11 000 instances de conteneurs en environnement de production et connecté à plus de 1 000 applications en 2015 à 618, et adopté pleinement la technologie conteneur dans le nouveau centre de données à partir d’août 2015. À ce jour, JD.com a lancé plus de 20 000 instances Docker, qui devraient doubler d’ici la fin de l’année, date à laquelle la plupart des applications de JD.com seront publiées via Docker. À l’avenir, la vision Docker de JD.com est de gérer toutes les machines via Docker, de découpler complètement les applications des ressources physiques, d’assurer une maintenance système entièrement automatisée, et que le personnel R&D puisse se concentrer sur le développement de nouvelles applications.
Après avoir tant dit,En fait, Google est le plus grand contributeur aux conteneurs.La technologie Docker est écrite dans le langage Go de Google, le deuxième langage de programmation open source publié par Google en 2009. Google publie plus de 200 millions de conteneurs chaque semaine, donnant à Google la capacité d’inventer de nombreuses technologies clés de conteneurs. Cela comprenait un système de gestion de conteneurs, dont la première version s’appelait Borg, suivie d’une version appelée Omega. Ce système de gestion permet l’utilisation de la technologie conteneur sur les ressources de cluster à grande échelle de Google. Plus tard, selon les articles académiques pertinents de Google, l’industrie a imité le système Mesos développé par Borg, qui est utilisé par Airbnb, Twitter, Siri d’Apple, etc.
   Entreprise personnalisée : Les entreprises du futur sont des entreprises de logiciels
Douglas M. Baker, Jr., président et PDG d’Ecolab, une entreprise du Fortune 500, a déclaré dans une étude menée par PwC dans l’enquête mondiale des PDG 2015 : « Aucune entreprise ne peut tenir pour acquis que l’entreprise d’aujourd’hui garantira le succès futur. On tient pour acquis que les grandes entreprises sont plus sûres et plus stables, mais les 50 dernières années ont prouvé le contraire. Si l’entreprise ne peut pas continuer à évoluer rapidement, le risque ne peut qu’augmenter plutôt que diminuer. ”
La capacité de changer est évidemment devenue la compétitivité centrale des entreprises futures. À mesure que l’influence de l’industrie Internet devient de plus en plus importante, l’invasion d’Internet sur les industries traditionnelles devient de plus en plus intense et profonde, notamment avec l’introduction massive de la stratégie nationale « Internet + » de la Chine, et les entreprises futures seront de plus en plus Internetisées. Dans un environnement d’affaires entièrement basé sur Internet, les futures entreprises disposeront de capacités logicielles plus ou moins. En plus que l’entreprise future sera partiellement ou totalement structurée sur Internet, les entreprises s’appuieront également sur des capacités logicielles pour fournir des services personnalisés aux consommateurs et utilisateurs.
   Si les entreprises du futur sont des entreprises logicielles, l’importance de Docker peut être imaginée.À la mi-2015, Adrian Cockcroft, expert en technologie chez Battery Vetures, une société de capital-risque chevronnée de la Silicon Valley, a publié le Cloud White Paper 2015 : Une revue des jalons industriels et des perspectives futures, ancien architecte de plateformes cloud chez Netflix, ancien service de streaming aux États-Unis, et membre fondateur d’eBay Research Labs et Sun Microsystems Ingénieur distingué et architecte en chef du département informatique technique haute performance. Il pense que Docker évoluera progressivement pour devenir un outil de production standardisé, ce qui reflète aussi la forte acceptation de Docker d’un côté.
Adrian explique que le défi avec Docker est de gérer soigneusement l’écosystème tout en ajoutant rapidement des fonctionnalités pour soutenir les déploiements en production. Jusqu’à présent, Docker a évité une division de l’écosystème. Aujourd’hui, même le fabricant de puces Intel a franchi l’échelle pour rejoindre l’écosystème Docker. En mai, Intel a lancé Clear Linux, un projet d’OS centré sur les conteneurs actuellement en phase expérimentale, et Intel indique que le système sera disponible dans des environnements de production à l’avenir.
On constate que, dans le processus d’évolution vers l’avenir des affaires, il y aura de plus en plus de comportements transfrontaliers. Selon Thomson Reuters, il y a eu 10 330 fusions et acquisitions aux États-Unis rien qu’en novembre 2014, représentant un total de 1,9 trillion de dollars de valeur de transaction. Ces fusions et acquisitions visent davantage à étendre les alliances commerciales et à créer une valeur commerciale qu’une seule entreprise ne peut atteindre par des fusions ou acquisitions d’entreprises ayant des activités ou des capacités différentes. Selon le rapport Global CEO Survey de PwC de 2015, environ 44 % des PDG aux États-Unis lanceront une nouvelle alliance stratégique dans les 12 mois suivant l’enquête. Par le passé, les alliances commerciales visaient principalement à établir des liens avec des fournisseurs ou des utilisateurs, mais à l’avenir, de plus en plus de PDG choisiront de former des alliances avec des concurrents, des startups ou des entreprises dans différents domaines.
Bien sûr, de nombreux experts techniques de Docker, dont Sun Hongliang, membre de l’équipe principale de DaoCloud, ont déclaré à plusieurs reprises que Docker en est encore à ses débuts de développement, avec des défis tels que des fonctions réseau faibles, la sécurité et des difficultés à gérer des entreprises traditionnelles. C’est précisément à cause de ces immaturités techniques qu’un certain nombre de startups Docker ont émergé aux États-Unis et en Chine, chacune démontrant ses propres pouvoirs et ayant le courage de définir la prochaine génération de cloud computing et d’activités de nouvelle génération.
L’équipe de cloud computing du Software Engineering Lab (SEL) de l’Université du Zhejiang, l’une des premières en Chine à mener la recherche sur les conteneurs et les Dockers, a été créée en 2011 pour construire, analyser et étudier la technologie d’informatique en nuage open source. Dans son nouveau livre « Docker - Containers and Container Cloud », l’équipe SEL de l’Université du Zhejiang écrit : « Docker, qui repose sur la technologie des conteneurs, est rapidement devenu un trésor entre les mains des grands fabricants et développeurs de cloud computing, tant au pays qu’à l’étranger. Au milieu de la chaleur, une nouvelle révolution est discrètement arrivée. ”





Précédent:Ça vous apprendra à craquer manuellement n’importe quelle charge de cybercafé, n’importe quelle facture ! Ne pas se démoder !
Prochain:Questions d’algorithme d’entretien 1, 1, 2, 3, 5, 8, 13, 21, 34...... découvrez ce qu’est le 30e chiffre, et utilisez un algorithme récursif pour le découvrir
Publié sur 12/11/2015 00:19:28 |
Dizzy
Démenti:
Tous les logiciels, supports de programmation ou articles publiés par Code Farmer Network sont uniquement destinés à l’apprentissage et à la recherche ; Le contenu ci-dessus ne doit pas être utilisé à des fins commerciales ou illégales, sinon les utilisateurs assumeront toutes les conséquences. Les informations sur ce site proviennent d’Internet, et les litiges de droits d’auteur n’ont rien à voir avec ce site. Vous devez supprimer complètement le contenu ci-dessus de votre ordinateur dans les 24 heures suivant le téléchargement. Si vous aimez le programme, merci de soutenir un logiciel authentique, d’acheter l’immatriculation et d’obtenir de meilleurs services authentiques. En cas d’infraction, veuillez nous contacter par e-mail.

Mail To:help@itsvse.com