arrow_back

Dégager des insights des données BigQuery : atelier challenge

Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

Dégager des insights des données BigQuery : atelier challenge

Lab 1 heure 30 minutes universal_currency_alt 5 crédits show_chart Intermédiaire
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

GSP787

Google Cloud – Ateliers adaptés au rythme de chacun

Présentation

Vous allez devoir effectuer une série de tâches dans le délai imparti. Aucune instruction détaillée ne sera fournie : vous disposerez d'un scénario et d'un ensemble de tâches. À vous de déterminer comment procéder ! Vous saurez si vous avez exécuté correctement les différentes tâches grâce au score calculé automatiquement (affiché sur cette page).

Pour atteindre le score de 100 %, vous devez réaliser l'ensemble des tâches dans le délai imparti.

Lorsque vous participez à un atelier challenge, vous n'étudiez pas de nouveaux concepts Google Cloud. Pour élaborer la solution qui vous permettra de résoudre le challenge présenté, utilisez les compétences acquises au cours des ateliers du cours correspondant. Vous devrez vous appuyer sur vos nouvelles compétences. Il vous faudra modifier les requêtes erronées.

Cet atelier est recommandé aux participants inscrits au cours Derive Insights from BigQuery Data et qui veulent obtenir le badge de compétence associé. Êtes-vous prêt pour le challenge ?

Préparation

Avant de cliquer sur le bouton "Démarrer l'atelier"

Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.

Cet atelier pratique vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.

Pour réaliser cet atelier :

  • vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome) ;
Remarque : Ouvrez une fenêtre de navigateur en mode incognito/navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le temporaire étudiant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
  • vous disposez d'un temps limité ; une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Remarque : Si vous possédez déjà votre propre compte ou projet Google Cloud, veillez à ne pas l'utiliser pour réaliser cet atelier afin d'éviter que des frais supplémentaires ne vous soient facturés.

Scénario

Vous faites partie d'un organisme de santé publique chargé d'identifier les réponses à des requêtes relatives à la pandémie de COVID-19. L'obtention de réponses correctes permettra à votre organisme de planifier et cibler les soins et les programmes de sensibilisation de façon appropriée.

L'ensemble de données et la table utilisés pour cette analyse sont : bigquery-public-data.covid19_open_data.covid19_open_data. Ce dépôt contient des ensembles de données nationales de séries temporelles quotidiennes liées à la COVID-19 à l'échelle mondiale. Il inclut des données sur les catégories démographiques, l'économie, l'épidémiologie, la zone géographique, la santé, les hospitalisations, la mobilité, la réponse gouvernementale et la météo.

Tâche 1 : Total de cas confirmés

  • Créez une requête qui répond à la question : "Quel était le total de cas confirmés au  ?". La requête doit renvoyer une ligne unique contenant la somme des cas confirmés dans le monde. Le nom de la colonne doit être total_cases_worldwide.

Colonnes de référence :

  • cumulative_confirmed
  • date

Cliquez sur Vérifier ma progression pour valider l'objectif. Total de cas confirmés

Tâche 2 : Régions les plus touchées

  • Créez une requête qui répond à la question : "Combien d'États américains comptaient plus de  morts au  ?" Le résultat devra apparaître dans le champ count_of_states.
Remarque : N'incluez pas les valeurs NULL.

Colonnes de référence :

  • country_name
  • subregion1_name (pour les informations sur l'État)
  • cumulative_deceased

Cliquez sur Vérifier ma progression pour valider l'objectif. Régions les plus touchées

Tâche 3 : Identifier les régions les plus sensibles

  • Créez une requête qui répond à la question : "Quels sont les États américains qui comptaient plus de  cas confirmés au  ?" La requête doit renvoyer le nom des États, associé au nombre de cas confirmés, par ordre décroissant. Les champs renvoyés sont state et total_confirmed_cases.

Colonnes de référence :

  • country_code
  • subregion1_name (pour les informations sur l'État)
  • cumulative_confirmed

Cliquez sur Vérifier ma progression pour valider l'objectif. Identification des régions les plus sensibles

Tâche 4 : Taux de létalité

  1. Créez une requête qui répond à la question : "Quel était le taux de létalité en Italie en  2020 ?" Ce taux est défini comme suit : (nombre total de décès/nombre total de cas confirmés) * 100.
  2. Créez une requête qui renvoie le taux pour  2020, dont les champs de sortie sont : total_confirmed_cases, total_deaths et case_fatality_ratio.

Colonnes de référence :

  • country_name
  • cumulative_confirmed
  • cumulative_deceased

Cliquez sur Vérifier ma progression pour valider l'objectif. Taux de létalité

Tâche 5 : Identification d'une journée spécifique

  • Créez une requête qui répond à la question : "Quel jour le nombre total de décès a-t-il dépassé en Italie ?" La requête doit renvoyer la date au format aaaa-mm-jj.

Colonnes de référence :

  • country_name
  • cumulative_deceased

Cliquez sur Vérifier ma progression pour valider l'objectif. Identification d'une journée spécifique

Tâche 6 : Journées sans augmentation du nombre de nouveaux cas

La requête suivante permet de déterminer le nombre de jours en Inde, entre le et le , qui n'ont pas connu d'augmentation du nombre de nouveaux cas confirmés. Toutefois, cette requête ne s'exécute pas correctement.

  • Vous devez modifier et compléter cette requête de façon à obtenir le résultat voulu :
WITH india_cases_by_date AS ( SELECT date, SUM(cumulative_confirmed) AS cases FROM `bigquery-public-data.covid19_open_data.covid19_open_data` WHERE country_name="India" AND date between '{{{project_0.startup_script.start_date_india_code}}}' and '{{{project_0.startup_script.close_date_india_code}}}' GROUP BY date ORDER BY date ASC ) , india_previous_day_comparison AS (SELECT date, cases, LAG(cases) OVER(ORDER BY date) AS previous_day, cases - LAG(cases) OVER(ORDER BY date) AS net_new_cases FROM india_cases_by_date )

Cliquez sur Vérifier ma progression pour valider l'objectif. Journées sans augmentation du nombre de nouveaux cas

Tâche 7 : Doublement du taux

  • Utilisez la requête précédente comme modèle pour créer une requête permettant de trouver les dates auxquelles le nombre de cas confirmés a augmenté de plus de  % par rapport à la journée précédente (indiquant un doublement du taux sur environ sept jours) aux États-Unis, entre le 22 mars et le 20 avril 2020. La requête doit renvoyer les dates, le nombre de cas confirmés à ces dates, le nombre de cas confirmés la veille de ces dates et le taux d'augmentation correspondant.

    • Utilisez les noms suivants pour les champs renvoyés : Date, Confirmed_Cases_On_Day, Confirmed_Cases_Previous_Day et Percentage_Increase_In_Cases.

Cliquez sur Vérifier ma progression pour valider l'objectif. Doublement du taux

Tâche 8 : Taux de guérison

  1. Créez une requête pour lister le taux de guérison des pays dans l'ordre décroissant ( maximum) au 10 mai 2020.

  2. Limitez la requête aux pays dont le nombre de cas confirmés est supérieur à 50 000.

    • La requête doit renvoyer les champs suivants : country, recovered_cases, confirmed_cases et recovery_rate.

Colonnes de référence :

* country_name * cumulative_confirmed * cumulative_recovered

Cliquez sur Vérifier ma progression pour valider l'objectif. Taux de guérison

Tâche 9 : Taux de croissance journalier cumulé

  • La requête suivante fait une estimation du taux de croissance journalier cumulé au en France, depuis le premier cas signalé. Le premier cas a été signalé le 24 janvier 2020.

  • Le calcul effectué est le suivant :

((last_day_cases/first_day_cases)^1/days_diff)-1)

Où :

  • last_day_cases est le nombre de cas confirmés au 10 mai 2020

  • first_day_cases est le nombre de cas confirmés au 24 janvier 2020

  • days_diff est le nombre de jours entre le 24 janvier et le 10 mai 2020

  • La requête ne s'exécute pas correctement. Pouvez-vous la corriger pour y remédier ?

WITH france_cases AS ( SELECT date, SUM(cumulative_confirmed) AS total_cases FROM `bigquery-public-data.covid19_open_data.covid19_open_data` WHERE country_name="France" AND date IN ('2020-01-24', '{{{project_0.startup_script.date_code}}}') GROUP BY date ORDER BY date) , summary as ( SELECT total_cases AS first_day_cases, LEAD(total_cases) AS last_day_cases, DATE_DIFF(LEAD(date) OVER(ORDER BY date),date, day) AS days_diff FROM france_cases LIMIT 1 ) select first_day_cases, last_day_cases, days_diff, SQRT((last_day_cases/first_day_cases),(1/days_diff))-1 as cdgr from summary Remarque : Consultez la documentation Fonctions, opérateurs et expressions conditionnelles pour en savoir plus sur la fonction SQL intitulée "LEAD()".

Cliquez sur Vérifier ma progression pour valider l'objectif. Taux de croissance journalier cumulé

Tâche 10 : Créer un rapport Looker Studio

  • Créez un rapport Looker Studio qui réunit les données suivantes pour les États-Unis :

    • Nombre de cas confirmés
    • Nombre de décès
    • Période :

Cliquez sur Vérifier ma progression pour valider l'objectif. Créer un rapport Looker Studio

Remarque : Référez-vous à l'image ci-dessous lorsque vous créez le rapport. Assurez-vous qu'il correspond à l'image. Remarque : N'utilisez pas l'option Explorer avec Looker Studio dans BigQuery.

graphique linéaire

Félicitations !

Badge "Derive Insights from BigQuery Data"

Gagnez un badge de compétence

Cet atelier d'auto-formation fait partie du cours Derive Insights from BigQuery Data. Si vous terminez ce cours, vous obtiendrez le badge de compétence ci-dessus attestant de votre réussite. Ajoutez votre badge à votre CV et partagez-le sur les réseaux sociaux en utilisant le hashtag #GoogleCloudBadge.

Ce badge de compétence est associé au parcours de formation Data Analyst de Google. Si vous avez déjà terminé les autres cours de ce parcours de formation, explorez le catalogue Google Cloud Skills Boost pour découvrir plus de vingt autres cours auxquels vous pouvez vous inscrire pour gagner un badge de compétence.

Formations et certifications Google Cloud

Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.

Dernière mise à jour du manuel : 25 mars 2024

Dernier test de l'atelier : 26 septembre 2023

Copyright 2024 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.