Advanced 10 Steps 7h 6m 53 Credits
Cette quête Qwiklabs de niveau avancé est unique en son genre. Elle se compose d'ateliers pratiques qui permettent aux professionnels de l'informatique de se familiariser avec les sujets et les services au programme de la certification \"Google Cloud Certified – Professional Data Engineer\". De BigQuery à Dataproc en passant par Tensorflow, cette quête mettra à l'épreuve vos connaissances sur l'ingénierie des données GCP. Attention : même si les ateliers constituent une bonne base pour développer vos compétences, ils ne suffisent pas à réussir la quête. L'examen final étant assez difficile, nous vous recommandons d'avoir suivi une formation préalable ou de posséder de l'expérience en matière d'ingénierie des données cloud et de compléter votre apprentissage à l'aide d'autres ressources.
Objectives
Cette quête Qwiklabs de niveau avancé est unique en son genre. Elle se compose d'ateliers pratiques qui permettent aux professionnels de l'informatique de se familiariser avec les sujets et les services au programme de la certification \"Google Cloud Certified – Professional Data Engineer\". De BigQuery à Dataproc en passant par Tensorflow, cette quête mettra à l'épreuve vos connaissances sur l'ingénierie des données GCP. Attention : même si les ateliers constituent une bonne base pour développer vos compétences, ils ne suffisent pas à réussir la quête. L'examen final étant assez difficile, nous vous recommandons d'avoir suivi une formation préalable ou de posséder de l'expérience en matière d'ingénierie des données cloud et de compléter votre apprentissage à l'aide d'autres ressources.Quest Outline
Données météorologiques dans BigQuery
Dans cet atelier, vous allez analyser un historique d'observations météorologiques à l'aide de BigQuery et utiliser des données météorologiques avec d'autres ensembles de données. Cet atelier fait partie d'une série d'ateliers relatifs au traitement des données scientifiques.
Analyser les données relatives à la natalité à l'aide de Datalab et BigQuery
Dans cet atelier, vous analyserez un grand ensemble de données (137 millions de lignes) sur la natalité à l'aide de Google BigQuery et de Cloud Datalab. Cet atelier fait partie d'un ensemble d'ateliers relatifs au traitement des données scientifiques.
Bigtable : Qwik Start – Hbase Shell
Dans cet atelier, vous allez découvrir comment utiliser HBase Shell pour vous connecter à une instance Cloud Bigtable.
Cloud TPU : Qwik Start
Dans cet atelier, vous allez apprendre à utiliser un Cloud TPU pour accélérer des charges de travail de machine learning TensorFlow spécifiques sur Compute Engine.
Query BigQuery with Python Using Ibis
In this lab you'll use Ibis to query the Stack Overflow public dataset in BigQuery.
Prédire le prix des logements avec Tensorflow et Cloud ML Engine
Dans cet atelier, vous allez créer une solution de machine learning complète à l'aide de Tensorflow et de Cloud ML Engine, et tirer parti du cloud pour effectuer des tâches d'entraînement distribué et de prédiction en ligne.
Exécuter un pipeline de traitement de texte Big Data dans Cloud Dataflow
Dans cet atelier, vous allez utiliser Google Cloud Dataflow pour créer un projet Maven à l'aide du SDK Cloud Dataflow et exécuter un pipeline distribué de comptage de mots dans la console Google Cloud Platform.
Traitement ETL sur GCP à l'aide de Dataflow et de BigQuery
Dans cet atelier, vous allez concevoir plusieurs pipelines de données afin d'ingérer celles d'un ensemble de données public dans BigQuery.
Launching Dataproc Jobs with Cloud Composer
In this lab you’ll use Google Cloud Composer to automate the transform and load steps of an ETL data pipeline.
Créer un pipeline d'analyse de données IdO sur Google Cloud Platform
Dans cet atelier, vous allez découvrir comment connecter et gérer des appareils à l'aide de Cloud IoT Core, ingérer le flux d'informations à l'aide de Cloud Pub/Sub, traiter des données IdO à l'aide de Cloud Dataflow et utiliser BigQuery pour analyser les données IdO.
Utiliser Google Cloud Dataprep
Cloud Dataprep est l'outil de préparation de données en libre-service de Google. Au cours de cet atelier, vous allez apprendre à nettoyer et enrichir plusieurs ensembles de données dans Cloud Dataprep à l'aide d'un scénario d'utilisation fictif comprenant des informations sur les clients et un historique des achats.
Simuler un entrepôt de données dans le cloud avec BigQuery et Dataflow
Dans cet atelier, vous allez créer plusieurs pipelines afin d'ingérer les données d'un ensemble de données dans BigQuery, en simulant une transformation par lot.
Predict Visitor Purchases with a Classification Model in BQML
In this lab you will use a newly available ecommerce dataset to run some typical queries that businesses would want to know about their customers’ purchasing habits.
Predict Taxi Fare with a BigQuery ML Forecasting Model
In this lab you will explore millions of New York City yellow taxi cab trips available in a BigQuery Public Dataset, create a ML model inside of BigQuery to predict the fare, and evaluate the performance of your model to make predictions.