arrow_back

Dataflow: Qwik Start – Modelos

Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

Dataflow: Qwik Start – Modelos

Lab 45 minutos universal_currency_alt 1 crédito show_chart Introdutório
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

GSP192

Laboratórios autoguiados do Google Cloud

Visão geral

Neste laboratório, você vai aprender a criar um pipeline de streaming usando um dos modelos do Google para o Cloud Dataflow. Você vai usar o modelo Cloud Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery. A documentação do modelo está disponível no guia Comece agora com os modelos fornecidos pelo Google.

Você vai ter a opção de usar a linha de comando do Cloud Shell ou o console do Cloud para criar o conjunto de dados e a tabela do BigQuery. Escolha um desses métodos para usar durante todo o laboratório. Se você quiser experimentar o outro método, faça este laboratório uma segunda vez.

Configuração

Antes de clicar no botão Start Lab

Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é iniciado quando você clica em Começar o laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.

Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.

Confira os requisitos para concluir o laboratório:

  • Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e a conta de estudante, o que poderia causar cobranças extras na sua conta pessoal.
  • Tempo para concluir o laboratório---não se esqueça: depois de começar, não será possível pausar o laboratório.
Observação: não use seu projeto ou conta do Google Cloud neste laboratório para evitar cobranças extras na sua conta.

Como iniciar seu laboratório e fazer login no console do Google Cloud

  1. Clique no botão Começar o laboratório. Se for preciso pagar, você verá um pop-up para selecionar a forma de pagamento. No painel Detalhes do laboratório à esquerda, você verá o seguinte:

    • O botão Abrir Console do Cloud
    • Tempo restante
    • As credenciais temporárias que você vai usar neste laboratório
    • Outras informações se forem necessárias
  2. Clique em Abrir Console do Google. O laboratório ativa recursos e depois abre outra guia com a página Fazer login.

    Dica: coloque as guias em janelas separadas lado a lado.

    Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
  3. Caso seja preciso, copie o Nome de usuário no painel Detalhes do laboratório e cole esse nome na caixa de diálogo Fazer login. Clique em Avançar.

  4. Copie a Senha no painel Detalhes do laboratório e a cole na caixa de diálogo Olá. Clique em Avançar.

    Importante: você precisa usar as credenciais do painel à esquerda. Não use suas credenciais do Google Cloud Ensina. Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
  5. Acesse as próximas páginas:

    • Aceite os Termos e Condições.
    • Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
    • Não se inscreva em testes gratuitos.

Depois de alguns instantes, o console do GCP vai ser aberto nesta guia.

Observação: para ver uma lista dos produtos e serviços do Google Cloud, clique no Menu de navegação no canto superior esquerdo. Ícone do menu de navegação

Ativar o Cloud Shell

O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.

  1. Clique em Ativar o Cloud Shell Ícone "Ativar o Cloud Shell" na parte de cima do console do Google Cloud.

Depois de se conectar, vai notar que sua conta já está autenticada, e que o projeto está configurado com seu PROJECT_ID. A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.

  1. (Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
  1. Clique em Autorizar.

  2. A saída será parecida com esta:

Saída:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project

Saída:

[core] project = <project_ID>

Exemplo de saída:

[core] project = qwiklabs-gcp-44776a13dea667a6 Observação: para conferir a documentação completa da gcloud, acesse o guia com informações gerais sobre a gcloud CLI no Google Cloud.

Ative a API Dataflow

Para ter acesso à API Dataflow, reinicie a conexão.

  1. No console do Cloud, digite "API Dataflow" na barra de pesquisa superior. Clique no resultado para API Dataflow.

  2. Selecione Gerenciar.

  3. Clique em Desativar API.

Se for necessário confirmar, clique em Desativar.

  1. Selecione Ativar.

A opção para desativar a API aparece quando ela é ativada novamente.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada.

Desative e reative a API Dataflow.

Tarefa 1: crie um conjunto de dados e uma tabela do Cloud BigQuery usando o Cloud Shell

Primeiro, você vai criar um conjunto de dados e uma tabela do BigQuery.

Observação: esta seção usa a ferramenta de linha de comando bq. Ignore esta parte se preferir usar o Console do GCP neste laboratório.
  1. Execute o seguinte comando para criar um conjunto de dados chamado taxirides:
bq mk taxirides

A resposta será semelhante a:

Dataset '' successfully created

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.

Crie um conjunto de dados do BigQuery (nome: taxirides).

Agora use o conjunto de dados criado na próxima etapa para instanciar uma tabela do BigQuery.

  1. Para isso, execute o seguinte comando:
bq mk \ --time_partitioning_field timestamp \ --schema ride_id:string,point_idx:integer,latitude:float,longitude:float,\ timestamp:timestamp,meter_reading:float,meter_increment:float,ride_status:string,\ passenger_count:integer -t taxirides.realtime

A resposta será semelhante a:

Table 'myprojectid:taxirides.realtime' successfully created

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.

Crie uma tabela no conjunto de dados do BigQuery.

A princípio, o comando bq mk parece complicado. Mas, com auxílio da documentação da linha de comando do BigQuery, podemos entender melhor como ele funciona. Na documentação, você encontra mais detalhes sobre o esquema, por exemplo:

  • O caminho para um arquivo de esquema JSON local ou uma lista de definições de coluna separadas por vírgula, no formato [FIELD]:[DATA_TYPE], [FIELD]:[DATA_TYPE].

Neste caso, estamos usando a lista de definições separadas por vírgula.

Crie um bucket do Cloud Storage

Agora que instanciamos nossa tabela, criaremos um bucket.

Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:

  • Para fazer isso, execute os comandos a seguir:
export BUCKET_NAME={{{project_0.project_id | "Bucket Name"}}} gsutil mb gs://$BUCKET_NAME/

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage foi criado, você recebe uma pontuação de avaliação.

Crie um bucket do Cloud Storage.

Depois de criar o bucket, role para baixo até a seção Executar o pipeline.

Tarefa 2: crie um conjunto de dados e uma tabela do Cloud BigQuery usando o console do Cloud

Observação: ignore esta seção se você definiu a configuração na linha de comando.
  1. No menu esquerdo, na seção "Big Data", clique em BigQuery.

  2. Clique em Concluído.

  3. Clique nos três pontos ao lado do nome do projeto, na seção Explorer, e clique em Criar conjunto de dados.

  4. Digite taxirides como ID do conjunto de dados:

  5. Selecione EUA (várias regiões nos Estados Unidos) em "Local dos dados".

  6. Deixe todas as demais configurações em padrão e clique em CRIAR CONJUNTO DE DADOS.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.

Crie um conjunto de dados do BigQuery (nome: taxirides).
  1. Agora o conjunto de dados taxirides aparece abaixo do ID do projeto, no lado esquerdo do console.

  2. Clique nos três pontos ao lado do conjunto de dados taxirides e selecione Abrir.

  3. Selecione CRIAR TABELA no lado direito do console.

  4. Em Destino > Nome da tabela, digite realtime.

  5. Em "Esquema", mova o controle deslizante para Editar como texto e insira o seguinte:

ride_id:string,point_idx:integer,latitude:float,longitude:float,timestamp:timestamp, meter_reading:float,meter_increment:float,ride_status:string,passenger_count:integer

A interface do Console vai ficar assim:

Página &quot;Criar tabela&quot;

  1. Clique em Criar tabela.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.

Crie uma tabela no conjunto de dados do BigQuery.

Crie um bucket do Cloud Storage

  1. Volte ao console do Cloud e acesse Cloud Storage > Buckets > Criar bucket.

  2. Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:

  3. Mantenha os valores padrão de todas as outras configurações e clique em Criar.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage foi criado, você recebe uma pontuação de avaliação.

Crie um bucket do Cloud Storage.

Tarefa 3: execute o pipeline

Implante o modelo do Dataflow:

gcloud dataflow jobs run iotflow \ --gcs-location gs://dataflow-templates-{{{project_0.default_region | "Region"}}}/latest/PubSub_to_BigQuery \ --region {{{project_0.default_region | "Region"}}} \ --worker-machine-type e2-medium \ --staging-location gs://{{{project_0.project_id | "Bucket Name"}}}/temp \ --parameters inputTopic=projects/pubsub-public-data/topics/taxirides-realtime,outputTableSpec={{{project_0.project_id | "Table Name"}}}:taxirides.realtime

No menu de navegação do console do Google Cloud, clique em Dataflow > Jobs para encontrar seu job.

Consulte este documento para mais informações.

Observação: aguarde um minuto para que o monitoramento de atividade seja concluído.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o pipeline do Dataflow tiver sido executado corretamente, você receberá uma pontuação de avaliação.

Execute o pipeline.

Você verá os recursos serem criados e disponibilizados para uso.

Agora vamos ver os dados gravados no BigQuery. Clique em BigQuery no menu de navegação.

  • Na IU do BigQuery, você vai encontrar o conjunto de dados taxirides adicionado abaixo do nome do projeto e a palavra realtime abaixo dela.
Observação: talvez seja preciso aguardar alguns minutos até que os dados sejam preenchidos na tabela do BigQuery.

Tarefa 4: envie uma consulta

Você pode enviar consultas usando o SQL padrão.

  1. No Editor do BigQuery, adicione a consulta abaixo aos dados do seu projeto:
SELECT * FROM `{{{project_0.project_id | "Bucket Name"}}}.taxirides.realtime` LIMIT 1000
  1. Clique em EXECUTAR.

Se houver algum problema ou erro, execute a consulta novamente. A inicialização do pipeline leva um minuto.

  1. Quando a consulta terminar, você verá a resposta no painel Resultados da consulta, como na imagem abaixo:

Página de resultados da consulta

Bom trabalho! Você acabou de extrair 1.000 corridas de táxi de um tópico do Pub/Sub e as enviou para uma tabela do BigQuery. Como você viu em primeira mão, os modelos são uma maneira prática e fácil de executar jobs do Dataflow. Confira outros modelos do Google na documentação do Dataflow, no guia Comece agora com os modelos fornecidos pelo Google.

Tarefa 5: teste seu conhecimento

Responda às perguntas de múltipla escolha abaixo para reforçar sua compreensão dos conceitos abordados neste laboratório. Use tudo o que você aprendeu até aqui.

Parabéns!

Termine a Quest

Este laboratório autoguiado faz parte da Quest Baseline: Data, ML, AI. Uma Quest é uma série de laboratórios relacionados que formam um programa de aprendizado. Ao concluir uma Quest, você ganha um selo como reconhecimento da sua conquista. Você pode publicar os selos com um link para eles no seu currículo on-line ou nas redes sociais. Inscreva-se nesta Quest ou em outra que tenha este laboratório para receber os créditos de conclusão imediatamente. Consulte o catálogo do Google Cloud Ensina para ver todas as Quests disponíveis.

Próximas etapas/Saiba mais

Este laboratório faz parte de uma série chamada Qwik Starts. Ela foi desenvolvida para apresentar a você alguns dos recursos disponíveis no Google Cloud. Pesquise "Qwik Starts" no Catálogo do Google Cloud Ensina para encontrar algum laboratório que seja do seu interesse.

Treinamento e certificação do Google Cloud

Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.

Manual atualizado em 10 de novembro de 2023

Laboratório testado em 10 de novembro de 2023

Copyright 2024 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.