menu
arrow_back

Pipeline zur Big-Data-Textverarbeitung in Cloud Dataflow ausführen

Pipeline zur Big-Data-Textverarbeitung in Cloud Dataflow ausführen

40 Minuten 7 Guthabenpunkte

GSP047

Google Cloud-Labs zum selbstbestimmten Lernen

Überblick

Dataflow ist ein einheitliches Programmiermodell und ein verwalteter Dienst für die Entwicklung und Ausführung verschiedener Datenverarbeitungsmuster wie ETL, Batchberechnung und kontinuierliche Berechnung. Da es sich um einen verwalteten Dienst handelt, können Ressourcen auf Abruf zugewiesen werden. Dies verringert die Latenz und sorgt gleichzeitig für eine anhaltend hohe Auslastungseffizienz.

Im Dataflow-Modell werden die Batch- und Streamverarbeitung kombiniert, damit Entwickler in Sachen Qualität, Kosten und Verarbeitungszeit keine Kompromisse eingehen müssen. In diesem Lab lernen Sie, wie Sie mit einer Dataflow-Pipeline herausfinden, wie häufig einzelne Wörter in einer Textdatei vorkommen.

Lerninhalte

  • Maven-Projekt mit dem Cloud Dataflow SDK erstellen

  • Beispiel-Pipeline mithilfe der Google Cloud Platform Console ausführen

  • Zugehörigen Cloud Storage-Bucket und seine Inhalte löschen

Wenn Sie sich in Qwiklabs anmelden, erhalten Sie Zugriff auf den Rest des Labs – und mehr!

  • Sie erhalten vorübergehenden Zugriff auf Google Cloud Console.
  • Mehr als 200 Labs für Einsteiger und Experten.
  • In kurze Sinneinheiten eingeteilt, damit Sie in Ihrem eigenen Tempo lernen können.
Beitreten, um dieses Lab zu starten
Punktzahl

—/100

Create a new Cloud Storage bucket

Schritt ausführen

/ 50

Run a text processing pipeline on Cloud Dataflow

Schritt ausführen

/ 50