Airflow in der Cloud
Orchestrierung von skalierbaren Workflows mit Apache Airflow Cloud oder agnostisch in Kubernetes
Cloud Workshops
Einführung in die leistungsstarke Datenplattform für Data Engineering, Machine Learning und Data Science
PIn den ersten beiden Tagen werden die Teilnehmer durch die Grundlagen von Databricks geführt, darunter Delta Lake, Data Streaming, Data Warehousing und Data Governance. Der Workshop vertieft sich in die Databricks-Architektur, Unity Catalog für effiziente Datenorganisation und -verwaltung. Praktische Übungen umfassen das Arbeiten mit Delta Lake, die Integration von Daten aus verschiedenen Quellen und die Entwicklung von Data Engineering Pipelines. Am dritten Tag liegt der Fokus auf Data Engineering, DevOps und fortgeschrittenen Themen wie Structured Streaming und Machine Learning. Die Teilnehmer werden in die Strukturierung von Datenverarbeitungspipelines eingeführt, setzen Continuous Integration und Deployment mit dbx um und erkunden fortgeschrittene Anwendungen von Delta Live Tables sowie Machine Learning-Beispiele. Der Workshop bietet nicht nur theoretisches Wissen, sondern auch praxisnahe Labore, um die erworbenen Fähigkeiten unmittelbar anzuwenden und zu festigen.
3 Tage
Online oder Präsenz
EUR 2.100,00 pro Person
Agenda
Thinkport-Methode
Kombination aus Theorie, Live-Demos und Hands-on Labs
Interaktive Diskussionen und individuelle Fragen willkommen
Trainer mit Know-how aus realen Kundenprojekten
Training-Anfrage
Füllen Sie das Formular aus, um eine Anfrage für dieses Training zu stellen. Wir melden uns schnellstmöglich bei Ihnen.

Business Unit Lead - Data Intelligence
Einführung in die leistungsstarke Datenplattform für Data Engineering, Machine Learning und Data Science
Füllen Sie das folgende Formular aus, um eine Anfrage für dieses Training zu stellen. Wir melden uns schnellstmöglich bei Ihnen.
Häufig gestellte Fragen
Das Training richtet sich an Einsteiger. Grundkenntnisse in Datenverarbeitung sind hilfreich, aber nicht zwingend erforderlich.
Wir arbeiten hauptsächlich mit Python und SQL. Spark-Kenntnisse sind hilfreich, aber nicht erforderlich.
Ja, das Training ist ideal für Teams. Wir können die Inhalte an Ihre spezifischen Anforderungen anpassen.
Ja, das Training besteht zu 60% aus praktischen Übungen und Hands-on Labs, damit Sie die Konzepte direkt anwenden können.
Ja, das Training ist sowohl remote als auch vor Ort verfügbar. Die Remote-Version bietet die gleiche Qualität und Interaktivität.
Orchestrierung von skalierbaren Workflows mit Apache Airflow Cloud oder agnostisch in Kubernetes
Profi werden in HashiCorp Terraform. Lernen Sie ganze Infrastrukturen in AWS mit IaC im Handumdrehen bereitzustellen.
Erlernen Sie in nur einem Tag, wie Sie mit AWS moderne, automatisierte Deployment-Prozesse umsetzen.
Einführung in die leistungsstarke Datenplattform für Data Engineering, Machine Learning und Data Science