menu
arrow_back

Pipeline zur Big-Data-Textverarbeitung in Cloud Dataflow ausführen

Zugangsdauer: 40 Minuten · Abschlussdauer: 40 Minuten
Connection Details

7 Credits

info_outline
This lab costs 7 Credits to run. You can purchase credits or a subscription under My Account.

GSP047

Google Cloud Labs zum selbstbestimmten Lernen

Überblick

Dataflow ist ein einheitliches Programmiermodell und ein verwalteter Dienst für die Entwicklung und Ausführung verschiedener Datenverarbeitungsmuster wie ETL, Batchberechnung und kontinuierliche Berechnung. Es handelt sich um einen verwalteten Dienst, mit dem Ressourcen auf Abruf zugewiesen werden können, um die Latenz zu minimieren und gleichzeitig für eine anhaltend hohe Auslastungseffizienz zu sorgen.

Im Dataflow-Modell werden die Batch- und Streamverarbeitung kombiniert, damit Entwickler bei Qualität, Kosten und Verarbeitungszeit keine Kompromisse eingehen müssen. In diesem Lab lernen Sie, wie Sie mit einer Dataflow-Pipeline herausfinden, wie häufig einzelne Wörter in einer Textdatei vorkommen.

Lerninhalte

  • Maven-Projekt mit der Cloud Dataflow SDK erstellen
  • Beispiel-Pipeline mithilfe der Google Cloud Platform Console ausführen
  • Zugehörigen Cloud Storage-Bucket und seine Inhalte löschen

Join Qwiklabs to read the rest of this lab...and more!

  • Get temporary access to the Google Cloud Console.
  • Over 200 labs from beginner to advanced levels.
  • Bite-sized so you can learn at your own pace.
Join to Start This Lab
Score

—/10

Create a new Cloud Storage bucket

Schritt durchführen

/ 5

Run a text processing pipeline on Cloud Dataflow

Schritt durchführen

/ 5

home
Startseite
school
Katalog
menu
Mehr
Mehr