menu
arrow_back

Traçage avec Stackdriver sur Kubernetes Engine

Traçage avec Stackdriver sur Kubernetes Engine

1 heure 7 crédits

GSP484

Google Cloud – Ateliers adaptés au rythme de chacun

Présentation

Quand on assure la gestion d'un système de production qui traite des requêtes HTTP ou fournit une API, il est important de mesurer le temps de latence des points de terminaison. En effet, cela permet de détecter les cas où les performances d'un système ne sont pas conformes aux spécifications. Dans les systèmes monolithiques, cette mesure de la latence peut servir à détecter et à diagnostiquer une dégradation du comportement. Toutefois, cette opération s'avère beaucoup plus difficile pour les architectures de microservices modernes, car une même requête peut impliquer l'envoi de requêtes supplémentaires à de nombreux autres systèmes avant qu'elle puisse être entièrement traitée. La dégradation des performances d'un système sous-jacent peut avoir une incidence sur tous les autres systèmes qui en dépendent. Bien que la latence puisse être mesurée au niveau de chaque point de terminaison de service, il peut être difficile d'établir un lien entre la lenteur d'un point de terminaison public et un sous-service particulier qui a des problèmes.

C'est ici que le traçage distribué entre en jeu. Celui-ci utilise les métadonnées transmises avec les requêtes pour établir des liens entre ces dernières sur différents niveaux de service. En collectant les données de télémétrie de tous les services dans une architecture de microservices et en propageant un ID de trace depuis une demande initiale à toutes les demandes subsidiaires, les développeurs peuvent identifier beaucoup plus facilement le service provoquant des ralentissements affectant le reste du système

Google Cloud fournit la suite de produits Operations pour gérer la journalisation, la surveillance et le traçage distribué. Cet atelier sera déployé sur Kubernetes Engine et présentera une architecture à plusieurs niveaux mettant en œuvre le traçage distribué. Il s'appuiera également sur Terraform pour mettre en place l'infrastructure nécessaire.

Cet atelier a été conçu par les ingénieurs de GKE Helmsman pour vous aider à mieux comprendre l'autorisation binaire GKE. Vous pouvez consulter cette démonstration sur Github en cliquant sur ce lien. Nous vous invitons tous à enrichir nos ressources !

Inscrivez-vous sur Qwiklabs pour consulter le reste de cet atelier, et bien plus encore.

  • Obtenez un accès temporaire à Google Cloud Console.
  • Plus de 200 ateliers, du niveau débutant jusqu'au niveau expert.
  • Fractionné pour vous permettre d'apprendre à votre rythme.
Inscrivez-vous pour démarrer cet atelier
Note

—/100

Use Terraform to set up the necessary infrastructure

Réaliser l'étape

/ 25

Create Cloud Monitoring workspace

Réaliser l'étape

/ 25

Deploy demo application

Réaliser l'étape

/ 25

Generate Telemetry Data

Réaliser l'étape

/ 25