arrow_back

API Explorer : Créer et mettre à jour un cluster

Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

API Explorer : Créer et mettre à jour un cluster

Lab 1 heure universal_currency_alt 1 crédit show_chart Débutant
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

GSP288

Google Cloud – Ateliers adaptés au rythme de chacun

Présentation

Google APIs Explorer est un outil permettant d'explorer différentes API Google de façon interactive. APIs Explorer vous permet d'effectuer les opérations suivantes :

  • parcourir rapidement les API et les versions disponibles ;
  • consulter les méthodes disponibles pour chaque API, les paramètres compatibles, ainsi que la documentation intégrée ;
  • exécuter des requêtes pour chaque méthode et voir les réponses en temps réel ;
  • effectuer des appels d'API authentifiés et autorisés ;
  • effectuer des recherches dans l'ensemble des services, des méthodes et de vos requêtes récentes afin de trouver rapidement ce dont vous avez besoin.

APIs Explorer utilise sa propre clé API à chaque requête. Lorsque vous l'utilisez pour formuler une requête, APIs Explorer affiche la syntaxe de la requête, qui inclut un espace réservé portant le libellé {YOUR_API_KEY}. Si vous souhaitez réaliser la même requête dans votre application, vous devez remplacer cet espace réservé par votre propre clé API.

Dans cet atelier, vous apprendrez à utiliser un modèle Google APIs Explorer intégré pour appeler l'API Cloud Dataproc afin de créer un cluster et d'exécuter un job Spark simple dans le cluster. Vous découvrirez également comment utiliser le modèle APIs Explorer pour appeler l'API Cloud Dataproc afin de mettre à jour votre cluster.

Préparation

Avant de cliquer sur le bouton "Démarrer l'atelier"

Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.

Cet atelier pratique vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.

Pour réaliser cet atelier :

  • vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome) ;
Remarque : Ouvrez une fenêtre de navigateur en mode incognito/navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le temporaire étudiant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
  • vous disposez d'un temps limité ; une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Remarque : Si vous possédez déjà votre propre compte ou projet Google Cloud, veillez à ne pas l'utiliser pour réaliser cet atelier afin d'éviter que des frais supplémentaires ne vous soient facturés.

Démarrer l'atelier et se connecter à la console Google Cloud

  1. Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, un pop-up s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau Détails concernant l'atelier, qui contient les éléments suivants :

    • Le bouton Ouvrir la console Google
    • Le temps restant
    • Les identifiants temporaires que vous devez utiliser pour cet atelier
    • Des informations complémentaires vous permettant d'effectuer l'atelier
  2. Cliquez sur Ouvrir la console Google. L'atelier lance les ressources, puis ouvre la page Se connecter dans un nouvel onglet.

    Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.

    Remarque : Si la boîte de dialogue Sélectionner un compte s'affiche, cliquez sur Utiliser un autre compte.
  3. Si nécessaire, copiez le nom d'utilisateur inclus dans le panneau Détails concernant l'atelier et collez-le dans la boîte de dialogue Se connecter. Cliquez sur Suivant.

  4. Copiez le mot de passe inclus dans le panneau Détails concernant l'atelier et collez-le dans la boîte de dialogue de bienvenue. Cliquez sur Suivant.

    Important : Vous devez utiliser les identifiants fournis dans le panneau de gauche. Ne saisissez pas vos identifiants Google Cloud Skills Boost. Remarque : Si vous utilisez votre propre compte Google Cloud pour cet atelier, des frais supplémentaires peuvent vous être facturés.
  5. Accédez aux pages suivantes :

    • Acceptez les conditions d'utilisation.
    • N'ajoutez pas d'options de récupération ni d'authentification à deux facteurs (ce compte est temporaire).
    • Ne vous inscrivez pas aux essais offerts.

Après quelques instants, la console Cloud s'ouvre dans cet onglet.

Remarque : Vous pouvez afficher le menu qui contient la liste des produits et services Google Cloud en cliquant sur le menu de navigation en haut à gauche. Icône du menu de navigation

Activer Cloud Shell

Cloud Shell est une machine virtuelle qui contient de nombreux outils pour les développeurs. Elle comprend un répertoire d'accueil persistant de 5 Go et s'exécute sur Google Cloud. Cloud Shell vous permet d'accéder via une ligne de commande à vos ressources Google Cloud.

  1. Cliquez sur Activer Cloud Shell Icône Activer Cloud Shell en haut de la console Google Cloud.

Une fois connecté, vous êtes en principe authentifié et le projet est défini sur votre ID_PROJET. Le résultat contient une ligne qui déclare YOUR_PROJECT_ID (VOTRE_ID_PROJET) pour cette session :

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud est l'outil de ligne de commande pour Google Cloud. Il est préinstallé sur Cloud Shell et permet la complétion par tabulation.

  1. (Facultatif) Vous pouvez lister les noms des comptes actifs à l'aide de cette commande :
gcloud auth list
  1. Cliquez sur Autoriser.

  2. Vous devez à présent obtenir le résultat suivant :

Résultat :

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (Facultatif) Vous pouvez lister les ID de projet à l'aide de cette commande :
gcloud config list project

Résultat :

[core] project = <ID_Projet>

Exemple de résultat :

[core] project = qwiklabs-gcp-44776a13dea667a6 Remarque : Pour consulter la documentation complète sur gcloud, dans Google Cloud, accédez au guide de présentation de la gcloud CLI.

Tâche 1 : Ouvrir APIs Explorer

  1. Accédez au menu de navigation > APIs & Services (API et services).

  2. Faites défiler la liste jusqu'à API Cloud Dataproc, puis cliquez dessus.

  3. Assurez-vous que l'API est activée. Si ce n'est pas le cas, cliquez sur Activer.

  4. Maintenant que vous avez vérifié que l'API était activée, ouvrez la documentation de référence de l'API REST. Un nouvel onglet s'ouvre et affiche la page de référence de l'API REST pour l'API Cloud Dataproc.

Tâche 2 : Créer un cluster

Dans la section API et documentation de référence à gauche, accédez à Documentation de référence sur REST > v1 > projects.regions.clusters > create pour utiliser la méthode projects.regions.clusters.create, ou utilisez la documentation de référence de la méthode projects.regions.clusters.create pour créer le cluster.

Remplissez maintenant le formulaire et exécutez le modèle APIs Explorer ci-dessous, comme suit :

  1. Insérez votre ID de projet Qwiklabs dans le champ "projectId".
  2. Définissez le champ de la région sur .
  3. Dans le corps de la requête, cliquez entre les accolades et ajoutez la propriété clusterName. Saisissez le nom de cluster de votre choix. La valeur du nom de cluster (clusterName) ne doit pas contenir d'espace ni de lettre majuscule.
  4. Dans le menu déroulant "Add a Property" (Ajouter une propriété), choisissez config.
  5. Dans le menu déroulant "Add a Property" (Ajouter une propriété), choisissez gceClusterConfig.
  6. Dans le menu déroulant "Add a Property" (Ajouter une propriété), choisissez le champ zoneUri, puis ajoutez l'élément suivant, en remplaçant my-project-id par l'ID de projet de cet atelier :
https://www.googleapis.com/compute/v1/projects/my-project-id/zones/{{{ project_0.default_zone | "ZONE" }}}
  1. Entre les accolades se trouvant sous config, sélectionnez softwareConfig.
  2. Entre les accolades se trouvant sous softwareConfig, sélectionnez imageVersion et définissez sa valeur sur 2.0-debian10.
  3. Entre les accolades se trouvant sous softwareConfig, sélectionnez optionalComponents. Sous optionalComponents cliquez sur ADD ITEM (Ajouter un élément) et sélectionnez JUPYTER dans le menu déroulant.

Une fois terminé, le corps de la requête doit ressembler à ce qui suit :

Corps de la requête affichant des lignes de code

  1. Assurez-vous que les cases Google OAuth 2.0 et API key (Clé API) sont cochées dans la section Credentials (Identifiants).
Remarque : Pour afficher les questions fréquentes sur les identifiants, cliquez sur l'icône en forme de point d'interrogation à côté du titre Credentials (Identifiants).
  1. Vérifiez qu'aucun champ ne se termine par une espace.

  2. Maintenant, faites défiler la page vers le bas et cliquez sur Execute (Exécuter).

  3. Sélectionnez le compte étudiant avec lequel vous avez commencé l'atelier.

  4. Sur l'écran suivant, cliquez sur Allow (Autoriser) pour permettre à APIs Explorer d'accéder aux informations.

  5. Les résultats de l'API Dataproc apparaissent sous la requête et ressemblent à ce qui suit :

Résultats de l&#39;API Dataproc

  1. Pour visualiser le cluster créé, vous pouvez accéder au menu de navigation > Dataproc > Clusters.

Tester la tâche terminée

Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si vous avez réussi à créer un cluster Dataproc dans la région , vous recevrez une note d'évaluation.

Créer un cluster Dataproc (région : )

Tâche 3 : Exécuter un job Spark

Ensuite, vous exécutez un job Apache Spark simple qui calcule une valeur approximative de pi dans un cluster Cloud Dataproc existant.

  • Dans la section API et documentation de référence à gauche, accédez à Documentation de référence sur REST > v1 > projects.regions.jobs > submit pour utiliser la méthode projects.regions.jobs.submit ou cliquez sur ce lien pour envoyer un job dans un cluster.

Remplissez maintenant le formulaire et exécutez le modèle APIs Explorer ci-dessous, comme suit :

  1. Insérez votre ID de projet dans le champ "projectId".
  2. Définissez le champ de la région sur .
  3. Dans le corps de la requête, cliquez entre les accolades et choisissez job.
  4. Cliquez entre les accolades en dessous et sélectionnez placement.
  5. Cliquez entre les accolades en dessous, sélectionnez clusterName, puis saisissez le nom du cluster.
  6. Entre les accolades se trouvant sous le job, sélectionnez sparkJob.
  7. À présent, ajoutez trois éléments sous sparkJob :
  • Entre les accolades se trouvant sous sparkJob, sélectionnez args. Sous args cliquez sur ADD ITEM (Ajouter un élément) et saisissez "1000"
  • Dans le menu déroulant "Add a Property" (Ajouter une propriété), choisissez jarFileUris. Sous jarFileUris cliquez sur ADD ITEM (Ajouter un élément) et saisissez file:///usr/lib/spark/examples/jars/spark-examples.jar
  • Dans le menu déroulant "Add a Property" (Ajouter une propriété), choisissez mainClass et saisissez org.apache.spark.examples.SparkPi

Une fois terminé, le corps de la requête doit ressembler à ce qui suit :

Mise en page du corps de la requête

  1. Assurez-vous que les cases Google OAuth 2.0 et API key (Clé API) sont cochées dans la section Credentials (Identifiants).
Remarque : Pour afficher les questions fréquentes sur les identifiants, cliquez sur l'icône en forme de point d'interrogation à côté du titre Credentials (Identifiants).
  1. Vérifiez qu'aucun champ ne se termine par une espace. Cliquez sur EXECUTE (Exécuter).

Les résultats de l'API Dataproc apparaissent sous la requête et ressemblent à ce qui suit :

Résultats de l&#39;API Dataproc

  1. Pour trouver vos résultats, accédez à Dataproc > Clusters. Cliquez sur le nom de votre cluster, puis sur l'onglet Jobs.

  2. Cliquez sur l'ID de job et définissez Renvoi à la ligne sur ACTIVÉ afin que les lignes dépassant la marge à droite apparaissent dans la vue.

Page à onglets &quot;Résultats du job&quot; avec renvoi à la ligne activé

Tester la tâche terminée

Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si vous avez réussi à envoyer un job Spark vers un cluster, vous recevrez une note d'évaluation.

Soumettre un job Spark

Tâche 4 : Mettre à jour un cluster

  • Dans la section API et documentation de référence à gauche, accédez à Documentation de référence sur REST > v1 > projects.regions.clusters > patch pour utiliser la méthode projects.regions.clusters.patch ou cliquez sur ce lien pour mettre à jour un cluster.

Remplissez maintenant le formulaire et exécutez le modèle APIs Explorer ci-dessous, comme suit :

  1. projectID = ID du projet
  2. region =
  3. clusterName = saisissez le nom du cluster
  4. updateMask = config.worker_config.num_instances
  5. Corps du correctif, saisissez les éléments suivants :
  • Première accolade = config
  • Cliquez entre les accolades en dessous et sélectionnez workerConfig.
  • Cliquez entre les accolades en dessous, sélectionnez numInstances, puis saisissez 3.

Votre formulaire doit se présenter comme suit :

Paramètres de la requête

  1. Assurez-vous que les cases Google OAuth 2.0 et API key (Clé API) sont cochées dans la section Credentials (Identifiants).
Remarque : Pour afficher les questions fréquentes sur les identifiants, cliquez sur l'icône en forme de point d'interrogation à côté du titre Credentials (Identifiants).
  1. Vérifiez qu'aucun champ ne se termine par une espace. Cliquez sur EXECUTE (Exécuter).

Les résultats de l'API Dataproc apparaissent sous la requête et ressemblent à ce qui suit :

Résultats de l&#39;API Dataproc

  1. Afin de vérifier la mise à jour, revenez à la page Clusters Dataproc. Vous avez à présent un total de trois nœuds de calcul.

Tester la tâche terminée

Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si vous avez réussi à mettre à jour une configuration de nœuds de calcul pour trois nœuds de calcul, vous recevrez une note d'évaluation.

Mettre à jour un cluster pour trois nœuds de calcul

Tâche 5 : Tester vos connaissances

Voici quelques questions à choix multiples qui vous permettront de mieux maîtriser les concepts abordés lors de cet atelier. Répondez-y du mieux que vous le pouvez.

Félicitations !

Vous avez utilisé l'API Cloud Dataproc via APIs Explorer pour créer un cluster, exécuter un job Spark et mettre à jour le cluster.

Terminer votre quête

Cet atelier d'auto-formation fait partie de la quête Exploring APIs. Une quête est une série d'ateliers associés qui constituent un parcours de formation. Si vous terminez cette quête, vous obtenez un badge attestant de votre réussite. Vous pouvez rendre publics les badges que vous recevez et ajouter leur lien dans votre CV en ligne ou sur vos comptes de réseaux sociaux. Inscrivez-vous à cette quête pour obtenir immédiatement les crédits associés. Découvrez toutes les quêtes disponibles dans le catalogue Google Cloud Skills Boost.

Étapes suivantes et informations supplémentaires

Formations et certifications Google Cloud

Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.

Dernière modification du manuel : 18 octobre 2023

Dernier test de l'atelier : 20 octobre 2023

Copyright 2024 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.