Cet article est un article miroir de traduction automatique, veuillez cliquer ici pour accéder à l’article original.

Vue: 15665|Répondre: 3

Outils de vulgarisation scientifique pour les architectures à grande échelle

[Copié le lien]
Publié sur 14/05/2018 13:32:51 | | | |

I.1 Java Spring Boot

Il convient à la construction de systèmes de microservices

  • Utiliser la page Bootstrap du Projet Spring peut construire un projet en quelques secondes
  • Il est pratique d’exporter diverses formes de services, telles que l’API REST, WebSocket, Web, Streaming et Tâches
  • Intégration très concise des politiques de sécurité
  • Les bases de données relationnelles et non relationnelles sont prises en charge
  • Prise en charge des conteneurs intégrés pendant l’exécution, tels que Tomcat et Jetty
  • Package de développement puissant avec prise en charge du démarrage à chaud
  • Gestion automatique des dépendances
  • Surveillance intégrée des applications
  • Prend en conscience divers IED, tels que IntelliJ IDEA, NetBeans

Autres langages : .net core, Go, etc


I.2 Jenkins

Procédures automatisées d’IC pour une intégration continue

  • Open source et gratuit
  • Multiplateforme, prise en charge de toutes les plateformes (j’ai installé sur Ubuntu 14.04, utiliser l’image docker de Jenkins n’a pas fonctionné)
  • Master/Slave prend en charge les builds distribués
  • Une page de gestion visuelle sous la forme d’un web
  • L’installation et la configuration sont très simples
  • conseils : Aide rapide et rapide
  • Des centaines de plugins existent déjà



I.3 GitLab

  • Un dépôt de projets Git auto-hébergé accessible via une interface web pour des installations publiques ou privées.
  • Il offre des fonctionnalités similaires à GitHub, avec la possibilité de naviguer dans le code source, de gérer les bugs et les commentaires. Il est possible de gérer l’accès de l’équipe au dépôt, il est très facile de parcourir les versions soumises et offre une bibliothèque d’historique des fichiers.
  • Les membres de l’équipe peuvent communiquer via le programme de chat simple intégré (Wall). Il propose également une fonction de collecte de extraits de code qui permet une réutilisation facile du code et une redécouverte facile en cas de besoin.
  • Dokcer
  • Docker est un moteur open source qui facilite la création d’un conteneur léger, portable et autonome pour toute application. Les conteneurs que les développeurs compilent et testent sur des notebooks peuvent être déployés par lots dans des environnements de production, y compris les machines virtuelles (VM), les clusters bare metal, les clusters OpenStack et d’autres plateformes applicatives sous-jacentes.
  • Docker est couramment utilisé dans les scénarios suivants :
  • automatisé le packaging et la publication d’applications web ;
  • tests automatisés et intégration continue, publication ;
  • Déploiement et ajustement de bases de données ou autres applications en arrière-plan dans un environnement orienté services ;
  • Construisez votre propre environnement PaaS en compilant ou en étendant votre plateforme OpenShift ou Cloud Foundry existante à partir de zéro.



I.4 Kubernetes

  • Kubernetes est un système de gestion de cluster de conteneurs et une plateforme open source capable de réaliser des fonctions telles que le déploiement automatisé, la mise à l’échelle automatique et la maintenance de clusters de conteneurs.
  • Avec Kubernetes, vous pouvez :
  • Déploie rapidement des applications
  • Faites évoluer rapidement vos applications
  • Intégration fluide avec les nouvelles fonctions applicatives
  • Économiser des ressources et optimiser l’utilisation des ressources matérielles



I.5 MQ

Lorsque des facteurs tels que la rapidité ou la stabilité de la « production » et de la « consommation » sont incohérents dans le système, des files d’attente de messages sont nécessaires comme couche d’abstraction pour combler les différences entre les deux camps. Un message est une unité de données transmise entre deux ordinateurs. Les messages peuvent être très simples, par exemple ne contenant que des chaînes de texte ; Il peut aussi être plus complexe et contenir des objets intégrés. Les messages sont envoyés vers des files d’attente, qui sont des conteneurs contenant les messages pendant la transmission.

  • Découplé
  • Redondance
  • Évolutivité
  • Flexibilité et débit de pic
  • Récupérabilité
  • Livraison garantie
  • Tri garanti
  • Tampon
  • Comprendre les flux de données
  • Communication asynchrone


I.6 SQL DB

  • Une base de données est un entrepôt construit sur des dispositifs de stockage informatique qui organise, stocke et gère les données selon une structure de données.
  • Pour faire simple, on peut le considérer comme un classeur électronique – un lieu où les fichiers électroniques sont stockés, et où les utilisateurs peuvent ajouter, intercepter, mettre à jour, supprimer et effectuer d’autres opérations sur les données du fichier.
  • Dans le travail quotidien de la gestion économique, il est souvent nécessaire de mettre certaines données pertinentes dans un tel « entrepôt » et de les traiter en conséquence selon les besoins de la direction.


MySQL/PostgreSQL est un représentant des bases de données relationnelles traditionnelles.

HBase est un représentant de la technologie Big Tables (indexation de lignes, stockage de colonnes).

Neo4j(http://www.neo4j.org/) est un représentant de base de données de graphes utilisé pour stocker des données complexes et multidimensionnelles de structures de graphes.

Redis est un représentant NoSQL basé sur Key-Value, et il existe Redis-to-go pour fournir des services de stockage.

MongoDB/CouchDB est un représentant NoSQL basé sur Document, et Couchbase est une fusion de la technologie Document/Clé-Valeur.

VoltDB est un représentant de NewSQL, avec une cohérence des données et une bonne scalabilité, et ses performances sont des dizaines de fois supérieures à celles de MySQL.

TiDB est une base de données SQL distribuée développée par l’équipe nationale PingCAP. Inspiré par le F1 de Google et la clé Google Cle, TiDB prend en charge des fonctionnalités telles que les SGBDR traditionnels et le NoSQL.

Pile TICK I.7

InfluxDB

Outils de bases de données de séries temporelles.

Telegraf

est un outil de collecte et de stockage de données. Il fournit de nombreux plugins d’entrée et de sortie, tels que la collecte du CPU local, du chargement, du trafic réseau, etc., puis l’écriture sur InfluxDB ou Kafka.

Chronograf

Outils de dessin

Kapacitor

Kapacitor est un outil d’alarme d’InfluxData, qui lit les données d’InfluxDB et configure TickScript selon le type DLS pour alerter.

I.8 Conservé

Keepalived est un logiciel de service en gestion de cluster qui assure une grande disponibilité du cluster, similaire à Heartbeat, pour éviter des points de défaillance isolés.

keepalilived est basé sur le protocole VRRP, qui signifie Virtual Router Redundancy Protocol, c’est-à-dire le protocole de redondance de routage virtuel.

Le protocole de redondance de route virtuelle, qui peut être considéré comme un protocole visant à assurer une haute disponibilité des routeurs, c’est-à-dire que N routeurs fournissant les mêmes fonctions forment un groupe de routeurs, ce groupe possède un maître et plusieurs sauvegardes, et il y a un VIP sur le maître qui fournit des services au monde extérieur (la route par défaut des autres machines dans le LAN où se trouve le routeur est le VIP), le maître envoie un multicast, et lorsque la sauvegarde ne peut pas recevoir le paquet VRRP, on considère que le maître est hors service. À ce stade, vous devez choisir une sauvegarde comme maître selon la priorité du VRRP. Cela garantira une grande disponibilité du routeur.

Keepalived propose trois modules principaux, à savoir Core, Check et VRRP. Le module de base est le noyau de keepalived, qui est responsable du démarrage et de la maintenance du processus principal, ainsi que du chargement et de l’analyse des fichiers de configuration globaux. Le contrôle est responsable des bilans de santé, y compris diverses méthodes d’examen courantes. Le module VRRP est conçu pour implémenter le protocole VRRP


I.9 Harbor

Harbor est un serveur de registre de niveau entreprise pour stocker et distribuer des images Docker.

I.10 Ignite / Redis

Le cadre d’organisation des données en mémoire Apache Ignite est une plateforme de calcul et de transaction, intégrée et distribuée en mémoire haute performance, destinée au traitement de jeux de données à grande échelle avec des performances supérieures aux technologies traditionnelles basées sur disque ou en flash, tout en offrant une gestion d’organisation des données en mémoire distribuée et haute performance entre les applications et différentes sources de données.


matriculeComparez les projetsApache IgniteRedis
1JCache (JSR 107)Ignite est entièrement compatible avec la spécification de cache JCache (JSR107)Non supporté
2Transactions ACIDIgnite prend entièrement en charge les transactions ACID, y compris les modèles de concurrence optimistes et pessimistes ainsi que les niveaux d’isolation READ_COMMITTED, REPEATABLE_READ et SÉRIALISABLE.Redis offre un support limité pour les transactions optimistes côté client, qui obligent le client à réessayer manuellement la transaction en cas de mises à jour simultanées.
3Partitionnement des donnéesIgnite supporte la mise en cache partitionnée, similaire à un hachage distribué, où chaque nœud du cluster stocke une partie des données, et Ignite rééquilibre automatiquement les données en cas de changement de topologie.Redis ne fournit pas de partitionnement, mais fournit un fragmentage des répliques, ce qui est très rigide à utiliser et nécessite une série d’étapes manuelles assez complexes chaque fois que la topologie change, tant client que serveur.
4Copie intégraleIgnite prend en charge la réplication mise en cache, prise en charge par chaque paire clé-valeur pour chaque nœud du cluster.Redis ne fournit pas de support direct pour la réplication complète.
5Objet natifIgnite permet aux utilisateurs d’utiliser leur propre modèle d’objet de domaine et offre un support natif pour tout type de données Java/Scala, C++ et .NET/C# (objet), permettant ainsi de stocker facilement n’importe quel programme et objet de domaine dans le cache Ignite.Redis n’autorise pas les utilisateurs à utiliser des types de données personnalisés, il ne prend en charge que des collections prédéfinies de structures de données de base, telles que Set, List, Array, et quelques autres.
6Cache côté client (proche)Ignite offre un support direct pour la mise en cache côté client des données récemment consultées.Non supporté
7 (côté serveur) juxtapositionIgnite prend en charge l’exécution directe de tout code Java, C++ et .NET/C# de manière collatérale, proche des données côté serveur.Redis ne dispose généralement d’aucune capacité de collocation, et le côté serveur ne supporte essentiellement que le langage de script LUA, tandis que le côté serveur ne supporte pas directement l’exécution de code Java, .NET ou C++.
8Requêtes SQLIgnite prend en charge la syntaxe SQL complète (ANSI-99) pour interroger les données en mémoire.Redis ne prend en charge aucun langage de requête, seulement l’API de mise en cache côté client.
9Enquête continueIgnite offre la prise en charge des requêtes persistantes côté client et côté serveur, et les utilisateurs peuvent définir des filtres côté serveur pour réduire et diminuer le nombre d’événements transmis au client.Redis prend en charge les notifications d’événements basées sur les clés côté client, mais il ne propose pas de filtres côté serveur, ce qui entraîne une augmentation significative du trafic réseau pour mettre à jour les notifications côté client et serveur.
10Intégration de bases de donnéesIgnite peut intégrer automatiquement des bases de données externes - SGBD, NoSQL et HDFS.Redis ne peut pas être intégré à des bases de données externes.



I.11 ELK

ELK se compose de trois composantes : Elasticsearch, Logstash et Kibana ;

Elasticsearch est un moteur de recherche distribué open source qui propose une répartition distribuée, sans configuration, une découverte automatique, un auto-fragmentation d’index, un mécanisme de réplication d’index, une interface de style restful, plusieurs sources de données et une charge utile d’auto-recherche.

Logstash est un outil entièrement open source qui collecte, analyse et stocke vos journaux pour une utilisation ultérieure

Kibana est un outil open source et gratuit qui offre à Logstash et ElasticSearch une interface web adaptée à l’analyse de journaux qui peut vous aider à agréger, analyser et rechercher des journaux de données importants.



I.12 Kong(Nginx)

Kong est un projet API très disponible, facile à étendre, écrit sur Nginx_Lua modules et est open source par Mashape. Puisque Kong est basé sur Nginx, il peut mettre en place plusieurs serveurs Kong horizontalement et répartir les requêtes uniformément à chaque serveur via une configuration de chargement frontal pour gérer un grand nombre de requêtes réseau.

Kong comporte trois composantes principales :

KongServer : Un serveur basé sur nginx qui reçoit les requêtes API.

ApacheCassandra/PostgreSQL : Utilisé pour stocker des données opérationnelles.

Kongdashboard : Outil de gestion d’interface utilisateur officiellement recommandé, bien sûr, vous pouvez aussi utiliser Restfull pour gérer l’adminapi.

Kong utilise un mécanisme de plugins pour la personnalisation fonctionnelle, où un ensemble de plugins (pouvant être 0 ou n) est exécuté pendant le cycle de vie de la boucle de réponse aux requêtes API. Le plugin est écrit en Lua et possède actuellement plusieurs fonctions de base : authentification de base HTTP, authentification de clé, CORS (Cross-originResourceSharing), TCP, UDP, journalisation de fichiers, limitation des requêtes API, transfert de requêtes et surveillance nginx.



I.13 Openstack

OpenStack+KVM

OpenStack : projet de gestion open source

OpenStack est un projet open source qui vise à fournir des logiciels pour la construction et la gestion de clouds publics et privés. Ce n’est pas un logiciel, mais une combinaison de plusieurs composants principaux pour accomplir un travail spécifique. OpenStack est composé des cinq composants relativement indépendants suivants :

OpenStackCompute (Nova) est un ensemble de contrôleurs utilisés pour le calcul de machines virtuelles ou pour lancer des instances de machines virtuelles en utilisant des groupes ;

OpenStack Image Service (Glance) est un système de recherche et de récupération d’images par machine virtuelle qui réalise la gestion d’images par machine virtuelle.

OpenStack Object Storage (Swift) est un système de stockage basé sur des objets destiné aux systèmes à grande échelle doté d’une redondance et d’une tolérance aux pannes intégrées, similaire à Amazon S3.

OpenStackKeystone pour les services d’identité utilisateur et la gestion des ressources, ainsi que

OpenStackHorizon, une interface de tableau de bord basée sur Django, est une interface de gestion graphique.

Initialement développé par la NASA et Rackspace fin 2010, ce projet open source vise à créer une plateforme de cloud computing facile à déployer, riche en fonctionnalités et évolutive. La première tâche du projet OpenStack est de simplifier le processus de déploiement du cloud et d’apporter une bonne scalabilité, dans le but de devenir le système d’exploitation du centre de données, c’est-à-dire le système d’exploitation cloud.

KVM : Technologie de virtualisation ouverte

KVM (VirtualMachine basée sur le noyau) est un module de virtualisation système open source qui nécessite un support matériel, tel que la technologie IntelVT ou la technologie AMDV, entièrement virtualisé sur le matériel et entièrement intégré à Linux.

En 2008, Red Hat a acquis Qumranet pour acquérir la technologie KVM et la promouvoir dans le cadre de sa stratégie de virtualisation, soutenant KVM comme seul hyperviseur lors de la sortie de RHEL 6 en 2011. KVM met l’accent sur la haute performance, la scalabilité, la sécurité élevée et le faible coût.



I.14 Déconcertation

En nous concentrant sur divers « composants communs » et « plateformes communes » de « gestion de configuration système distribuée », nous fournissons des « services de gestion de configuration » unifiés.

I.15 Apollon

Apollo est une plateforme de gestion de configuration développée par le département cadre de Ctrip, capable de gérer centralisément la configuration de différents environnements et clusters d’applications, et d’être transférée en temps réel vers l’application après modification de configuration, et possède des autorisations, une gouvernance de processus et d’autres caractéristiques standardisées.

Le serveur est développé sur la base de SpringBoot et SpringCloud, et peut être exécuté directement après l’emballage sans installer de conteneurs applicatifs supplémentaires tels que Tomcat.


I.16 gRPC

gRPC est un cadre RPC haute performance, open source et polyvalent pour les conceptions mobiles et HTTP/2. Actuellement, des versions en langages C, Java et Go sont disponibles, à savoir : grpc, grpc-java et grpc-go. La version C prend en charge C, C++, Node.js, Python, Ruby, Objective-C, PHP et C#.

gRPC est conçu selon la norme HTTP/2, intégrant des fonctionnalités telles que le débit bidirectionnel, le contrôle de débit, la compression de tête et les requêtes de multiplexage sur une seule connexion TCP. Ces caractéristiques améliorent ses performances sur appareils mobiles, économisant énergie et espace.



I.17 Canal

canal est un projet open source sous Alibaba, purement dédié au développement Java. Basé sur l’analyse syntaxique incrémentale des journaux de base de données, il fournit une abonnement et une consommation de données incrémentales, et prend actuellement principalement en charge MySQL (qui prend également en charge mariaDB).

Services basés sur le support des abonnements et de la consommation incrémentaux de journal :

  • Mise en miroir de base de données
  • Sauvegarde de base de données en temps réel
  • Indexation multi-niveaux (indices séparés vendeurs et acheteurs)
  • searchbuild
  • Rafraîchissement du cache de service
  • Actualités importantes pour le secteur économique telles que les variations de prix



I.18 Sparkstreaming

SparkStreaming est une extension de l’API centrale Spark qui permet un traitement à haut débit et tolérant aux pannes des données en streaming en temps réel. Prise en charge de l’acquisition de données à partir de diverses sources, notamment Kafk, Flume, Twitter, ZeroMQ, Kinesis et TCPsockets, et après récupération de données à partir de sources de données, des algorithmes complexes peuvent être traités à l’aide de fonctions avancées telles que map, reduce, join et window.


I.19 SonarQube

Sonar est une plateforme open source pour la gestion de la qualité du code afin de gérer la qualité du code source et de détecter la qualité du code à partir de sept dimensions

Grâce à des plug-ins, il peut prendre en charge la gestion et la détection de la qualité du code dans plus de 20 langages de programmation, dont java, C#, C/C++, PL/SQL, Cobol, JavaScrip, Groovy, etc

I.20 DataX

DataX est un outil de synchronisation hors ligne pour des sources de données hétérogènes, dédié à la réalisation d’une synchronisation stable et efficace entre diverses sources de données hétérogènes, y compris les bases de données relationnelles (MySQL, Oracle, etc.), HDFS, Hive, ODPS, HBase, FTP, et bien d’autres.

I.21 Gestion Zen/Jira

Fonction zen
1) Gestion de produit : produits, exigences, plans, releases, feuilles de route et autres fonctions.
2) Gestion de projet : projets, tâches, équipes, builds, diagrammes de burndown et autres fonctions.
3) Gestion de la qualité : bugs, cas de test, tâches de test, résultats de tests et autres fonctions.
4) Gestion documentaire : bibliothèque de documents produit, bibliothèque de documents de projet, bibliothèque de documents personnalisée et autres fonctions.
5) Gestion des transactions : gestion des tâches et fonctions de gestion des affaires personnelles telles que Mes tâches, Mes Bugs, Mes Besoins et Mes Projets.
6) Organisation et gestion : départements, utilisateurs, groupes, permissions et autres fonctions.
7) Fonction statistique : tableau statistique riche.
8) Fonction de recherche : Trouver les données correspondantes par recherche.


Fonctionnalités de JIRA
1) Suivi et gestion des problèmes (les types de problèmes incluent NewFeature, Bug, Task et Improvement) ;
2) Rapport d’analyse du suivi du problème ;
3) Fonction de gestion des catégories de projet ;
4) fonction de leader composant/module ;
5) Fonction d’adresse e-mail du projet ;
6) Flux de travail illimités.



I.22 XXJOB

XXL-JOB est un cadre léger de planification distribuée des tâches, dont les objectifs de conception sont un développement rapide, un apprentissage simple, un léger et une facilité à l’échelle.

  • Simple : Supporter le fonctionnement CRUD des tâches via des pages web, fonctionnement simple, une minute pour démarrer ;
  • Dynamique : Prend en charge la modification dynamique du statut des tâches, la pause/reprise des tâches, et la fin des tâches en cours, qui prennent effet immédiatement.
  • Centre de répartition HA (centralisé) : La planification est conçue de manière centralisée, et le « Centre de répartition » est basé sur le cluster Quartz et supporte le déploiement de cluster, ce qui peut garantir l’HA du centre de dispatch.
  • Exécuteur HA (distribué) : Les tâches sont exécutées de manière distribuée, et l'« exécuteur » de tâches prend en charge le déploiement en cluster pour garantir l’exécution des tâches par HA.
  • Registre : L’Exécuteur enregistrera automatiquement les tâches périodiquement, et le Centre de répartition découvrira automatiquement les tâches enregistrées et déclenchera leur exécution. En même temps, il prend également en charge la saisie manuelle des adresses des actionneurs ;
  • Mise à l’échelle élastique : Une fois qu’une nouvelle machine exécutrice est en ligne ou hors ligne, la tâche sera réaffectée lors de la prochaine planification.
  • Stratégies de routage : Fournit des stratégies de routage riches lors du déploiement d’un cluster d’exécuteurs, incluant : premier, dernier, polling, HASH aléatoire, cohérent, moins utilisé, plus récemment inutilisé, basculement, transfert chargé, etc.
  • Basculement : Si le basculement est sélectionné pour la politique de routage de tâche, si une machine du cluster d’exécuteurs échoue, le système bascule automatiquement vers un exécuteur normal pour envoyer une requête de planification.
  • stratégie de gestion des pannes ; Les politiques de gestion des échecs de planification incluent : alarme de défaillance (par défaut), tentative de réception ;
  • Échec de la réévaluation : Lorsque la planification du centre de répartition échoue et que la politique de réessayage échoué est activée, le système réessaie automatiquement une fois. Si l’exécuteur échoue à exécuter et que le callback ne tente pas à nouveau l’état, il sera également automatiquement reessayé.
  • Stratégie de traitement de blocage : la stratégie de traitement lorsque la planification est trop dense pour que l’exécuteur la traite, incluant la série sur une seule machine (par défaut), la suppression de la planification ultérieure et la réécriture de la planification précédente ;
  • Tâche de diffusion de shard : Lorsque le cluster d’exécuteurs est déployé, si la politique de routage de la tâche est sélectionnée comme « Shard Broadcast », une planification de tâche diffusera pour déclencher l’exécution d’une tâche à tous les exécuteurs du cluster, et la tâche de sharding peut être développée selon les paramètres de sharding.
  • Fragmentation dynamique : La tâche de diffusion en fragmentation est fragmentée en fonction de la dimension de l’exécuteur et permet l’expansion dynamique du cluster d’exécuteurs pour augmenter dynamiquement le nombre de fragments et collaborer au traitement métier. Lors de la réalisation d’opérations commerciales à grand volume de données, cela peut considérablement améliorer la capacité de traitement et la vitesse des tâches.
  • Déclenchement d’événements : En plus de la méthode cron et du mode dépendant de la tâche pour déclencher l’exécution de tâches, les méthodes de déclenchement basées sur des événements sont prises en charge. Le centre de dispatch fournit des services API qui déclenchent une seule exécution de tâches, pouvant être déclenchée de manière flexible selon les événements métier.
  • Suivi de l’avancement des tâches : Soutenir le suivi en temps réel de l’avancement des tâches ;
  • Journal en temps réel roulant : permet de visualiser les résultats de planification en ligne et de visualiser en temps réel la sortie complète du journal d’exécution de l’exécuteur de manière progressive.
  • GLUE : Fournit un WebIDE qui soutient le développement en ligne du code logique des tâches, la publication dynamique, la compilation en temps réel et l’efficacité, et élimine le processus de déploiement et de lancement. Supportez 30 versions de la version historique à l’envers.
  • Tâches de script : Supporte le développement et l’exécution de tâches de script en mode GLUE, y compris Shell, Python, NodeJS et d’autres scripts.
  • Dépendances des tâches : Soutenir la configuration des dépendances des sous-tâches ; lorsque la tâche parente est exécutée et que l’exécution est réussie, l’exécution de la sous-tâche sera activement déclenchée, et plusieurs sous-tâches seront séparées par des virgules.
  • Cohérence : Le Centre de planification garantit la cohérence de la planification distribuée en cluster via les verrous de la base de données, et une seule planification de tâche déclenchera une exécution.
  • Paramètres personnalisés de tâche : Prise en charge de la configuration en ligne des paramètres de planification des tâches, qui prennent effet immédiatement ;
  • Pool de fils d’ordonnancement : Le système de planification déclenche une opération de planification avec plusieurs threads afin de garantir que la planification est exécutée avec précision et ne soit pas bloquée.
  • Chiffrement des données : La communication entre le centre de répartition et l’exécuteur est chiffrée afin d’améliorer la sécurité des informations de dispatch.
  • Alarme email : Prendre en charge l’alarme par email lorsqu’une tâche échoue, et supporter la configuration de plusieurs adresses email pour envoyer des emails d’alarme en masse.
  • Push le dépôt central de Maven : La dernière version stable sera envoyée dans le dépôt central de Maven pour faciliter l’accès et l’utilisation des utilisateurs.
  • Rapport d’exécution : Prend en charge la visualisation en temps réel des données en cours, telles que le nombre de tâches, le nombre de plannings, le nombre d’exécuteurs, etc. et des rapports de planification, tels que le tableau de distribution des dates de planification, la carte de distribution des succès de planification, etc. ;
  • Entièrement asynchrone : La couche inférieure du système réalise l’asynchrone complet, et le stalage des pics de trafic est effectué pour un planning dense, qui soutient théoriquement l’exécution de tâches de toute durée.



I.23 Empilement de sel

Une nouvelle méthode de gestion d’infrastructure, facile à déployer, qui peut fonctionner en quelques minutes, bonne scalabilité, facile à gérer des dizaines de milliers de serveurs, assez rapide, communication entre serveurs en quelques secondes.

La couche sous-jacente de sel adopte un bus de connexion dynamique pouvant être utilisé pour l’orchestration, l’exécution à distance, la gestion de configuration, etc.

I.24 Istio

En tant que projet de pointe pour la gestion de la couche d’agrégation de services microservices, Istio est le premier projet open source conjoint de Google, IBM et Lyft (une société de covoiturage étrangère et rivale d’Uber), offrant une solution unifiée, la sécurité, la gestion et la surveillance des microservices.

La première bêta concerne actuellement les environnements Kubernetes, et la communauté affirme que le support des machines virtuelles et d’autres environnements comme CloudFoundry sera ajouté dans les mois à venir. Istio ajoute la gestion du trafic aux microservices et crée une base pour des fonctions à valeur ajoutée telles que la sécurité, la surveillance, le routage, la gestion des connexions et les politiques.

  • l’équilibrage automatique de charge pour le trafic réseau HTTP, gRPC et TCP ;
  • Il fournit des règles de routage riches pour obtenir un contrôle précis du comportement du trafic réseau.
  • le chiffrement du trafic, l’authentification inter-services et les revendications d’identité fortes ;
  • Application des politiques à l’échelle de la flotte ;
  • Télémétrie et rapports approfondis.



Architecture




Sécurité



Notions de base

Salt Stack + OpenStack + KVM + Kubernetes + Istio





Précédent:Partage de données par IA
Prochain:Explication détaillée du Tuple C# VS ValueTuple
Publié sur 17/07/2019 13:41:46 |
Merci d’avoir partagé, d’apprendre...
Publié sur 27/11/2019 10:56:12 |
La quantité de connaissances est un peu grande
Démenti:
Tous les logiciels, supports de programmation ou articles publiés par Code Farmer Network sont uniquement destinés à l’apprentissage et à la recherche ; Le contenu ci-dessus ne doit pas être utilisé à des fins commerciales ou illégales, sinon les utilisateurs assumeront toutes les conséquences. Les informations sur ce site proviennent d’Internet, et les litiges de droits d’auteur n’ont rien à voir avec ce site. Vous devez supprimer complètement le contenu ci-dessus de votre ordinateur dans les 24 heures suivant le téléchargement. Si vous aimez le programme, merci de soutenir un logiciel authentique, d’acheter l’immatriculation et d’obtenir de meilleurs services authentiques. En cas d’infraction, veuillez nous contacter par e-mail.

Mail To:help@itsvse.com