Mo. bis Fr. von 8:00 bis 17:00 Uhr 0800 71 20000 Garantietermine Aktionspreise

Apache Airflow: Skalierbare Data Pipelines


Big Data Trainings 3 Tage

Verabschieden Sie sich von unübersichtlichen Cron-Jobs und manuellen Skripten. Apache Airflow hat sich als der Industriestandard für die programmatische Orchestrierung komplexer Datenflüsse etabliert. In diesem Training lernen Sie, robuste ETL- und Data-Pipelines vollständig in Python zu definieren, zu planen und zu überwachen. Wir gehen weit über die Grundlagen hinaus und behandeln Architekturmuster, die Skalierbarkeit und Wartbarkeit in produktiven Umgebungen sichern. Sie erfahren, wie Sie Abhängigkeiten intelligent steuern, Fehler automatisch abfangen und eigene Operatoren für spezifische Anforderungen entwickeln. Ziel ist es, dass Sie nach dem Kurs in der Lage sind, eine unternehmensweite Orchestrierungsplattform zu betreiben, die Transparenz schafft und Datensilos aufbricht. Setzen Sie auf "Pipelines as Code" und professionalisieren Sie Ihre Dateninfrastruktur nachhaltig.
DAGs professionell in Python coden
Komplexe Abhängigkeiten steuern
Custom Operators und Plugins bauen
Skalierung mit Celery und K8s
Monitoring und Alerting einrichten
Best Practices für Production
Testing und CI/CD Strategien

Zielgruppe

  • Data Engineers und Data Scientists
  • DevOps-Spezialistinnen und Backend-Entwickler
  • Softwarearchitektinnen im Big Data Umfeld
  • Für alle, die Datenprozesse automatisieren, überwachen und skalierbar gestalten wollen.

Voraussetzungen für die Schulung

  • Solide Kenntnisse in der Programmiersprache Python sind zwingend erforderlich.
  • Grundlegendes Verständnis von SQL und allgemeinen Datenbankkonzepten wird vorausgesetzt.
1.450,00 € zzgl. 19% USt.
1.725,50 € inkl. 19% USt.
890,00 € zzgl. 19% USt.
1.059,10 € inkl. 19% USt.
3 Tage Präsenz oder Online
1.250,00 € zzgl. 19% USt.
1.487,50 € inkl. 19% USt.
5 Tage Präsenz oder Online
1.850,00 € zzgl. 19% USt.
2.201,50 € inkl. 19% USt.

Kursinhalte

  • Architektur und Core-Konzepte
    • Komponenten: Scheduler, Webserver, Metastore und Worker
    • Lebenszyklus eines DAGs (Directed Acyclic Graph)
    • Installation und Konfiguration der Entwicklungsumgebung
    • Airflow CLI und Navigation im Web UI
  • DAG Design und Implementation
    • Definition von Workflows als Python-Code
    • Einsatz von Standard-Operatoren (Bash, Python, SQL)
    • Abhängigkeiten und Task-Reihenfolge definieren
    • Scheduling-Intervalle und Backfilling-Strategien
  • Fortgeschrittene Workflow-Steuerung
    • Datenaustausch zwischen Tasks mittels XComs
    • Verzweigungen und bedingte Ausführung (Branching)
    • Dynamische DAG-Generierung für variable Workloads
    • Trigger Rules und SLA-Definitionen
  • Erweiterbarkeit und Customizing
    • Entwicklung eigener Operatoren und Sensoren
    • Hooks für die Anbindung externer Systeme (Cloud, DBs)
    • Plugins zur Erweiterung der Funktionalität
    • Best Practices für wiederverwendbaren Code
  • Production Engineering und Deployment
    • Executor-Modelle im Vergleich (Local, Celery, Kubernetes)
    • Monitoring, Logging und Alerting-Strategien
    • Fehlerbehandlung, Retries und Timeouts
    • Unit Testing von DAGs und CI/CD Integration

Häufig gestellte Fragen

Grundkenntnisse in Container-Technologien sind hilfreich für das Verständnis der Executor-Konzepte, aber keine zwingende Voraussetzung für die Teilnahme.

Ja, das Training basiert auf den aktuellsten stabilen Versionen von Apache Airflow 2.x und behandelt die neueren Features und API-Änderungen.

Agenda und Seminarplan

  • Tag 1: Grundlagen und erste Workflows
  • Tag 2: Advanced Features und Datenfluss
  • Tag 3: Production Readiness und Scaling
Einführung in die Airflow-Architektur, Installation und erste Schritte. Wir schreiben unseren ersten DAG, verstehen das Scheduling und nutzen die Standard-Operatoren.
Vertiefung in XComs, Branching und dynamische Workflows. Wir lernen, wie man Daten zwischen Tasks austauscht und komplexe Logik abbildet.
Fokus auf Custom Operators, Testing und Deployment-Strategien. Wir betrachten verschiedene Executor-Typen und richten Monitoring sowie Alerting ein.

Buchen ohne Risiko

Sie zahlen erst nach erfolgreicher Schulung. Keine Vorkasse.

Lernen von Experten

Zertifizierte und praxiserfahrene TrainerInnen

Inklusive

Mittagessen, Kursmaterial, Zertifikat, WLAN, Getränke uvm.

Gruppengröße

Maximal 8 TeilnehmerInnen

Sprache

Deutsch (Englisch auf Wunsch)

Förderungen

Bis zu 100% Kostenübernahme!

Fragen zum Ablauf?

FAQ und Kontakt

Termine für Apache Airflow: Skalierbare Data Pipelines

18.05.2026
Plätze verfügbar
München 3 Tage
2.350,00 € zzgl. 19% USt.
2.796,50 € inkl. 19% USt.
21.09.2026
Plätze verfügbar
München 3 Tage
2.350,00 € zzgl. 19% USt.
2.796,50 € inkl. 19% USt.
18.05.2026
Plätze verfügbar
Online 3 Tage
2.350,00 € zzgl. 19% USt.
2.796,50 € inkl. 19% USt.
21.09.2026
Plätze verfügbar
Online 3 Tage
2.350,00 € zzgl. 19% USt.
2.796,50 € inkl. 19% USt.
Der passende Termin oder Standort ist nicht dabei? Gerne bieten wir Ihnen eine passende Lösung an.
Ähnliche Schulungen
590,00 € zzgl. 19% USt.
702,10 € inkl. 19% USt.
1.690,00 € zzgl. 19% USt.
2.011,10 € inkl. 19% USt.

Noch Fragen?

Rufen Sie mich an oder schreiben Sie mir eine E-Mail!

Michaela Berger
Michaela Berger