DP-203: Data Engineering on Microsoft Azure (DP-203T00-A) (eingestellt)
Microsoft

DP-203: Data Engineering on Microsoft Azure (DP-203T00-A) (eingestellt)

4 Tage
Advanced
Microsoft

Dieser Kurs ist nicht mehr als offenes Seminar verfügbar.

Hintergrund sind z.B. Hersteller-Abkündigungen, organisatorische Änderungen oder neue Kursangebote (Diese findest du ganz einfach über die Suche).

Wir bieten die Schulung weiterhin als Firmenschulung oder Inhouse-Kurs für dein Unternehmen an.

5.0 / 5 Sternen 1742 Gesamtbewertungen
Zufriedenheitsgarantie Qualität, die überzeugt – garantiert
28 Jahre Erfahrung Seit 1997 am Markt
Garantietermine Planbar. Verlässlich.
Überblick

In diesem Kurs lernen die Teilnehmer die Data Engineering-Muster und -Praktiken kennen, die sich auf die Arbeit mit Batch- und Echtzeit-Analyselösungen unter Verwendung von Azure-Datenplattformtechnologien beziehen.Die Teilnehmer beginnen mit Grundlagen der wichtigsten Computer- und Speichertechnologien, die zum Erstellen einer analytischen Lösung verwendet werden.Anschließend werden sie untersuchen, wie analytische Ausgabeebenen entworfen werden und sich auf datentechnische Überlegungen für die Arbeit mit Quelldateien konzentrieren. Die Teilnehmer lernen, wie man Daten, die in Dateien in einem Datenmeer gespeichert sind, interaktiv untersuchen kann. Sie lernen die verschiedenen Aufnahmetechniken kennen, die zum Laden von Daten mit Hilfe der Apache Spark-Funktion in Azure Synapse Analytics oder Azure Databricks oder zum Aufnehmen mit Hilfe von Azure Data Factory- oder Azure Synapse-Pipelines verwendet werden können.Die Teilnehmer lernen auch die verschiedenen Möglichkeiten kennen, wie man Daten mit denselben Technologien transformieren kann, mit denen sie aufgenommen werden.Die Teilnehmer wird während des Kurses lernen, wie die Leistung des Analysesystems überwacht und analysiert wird, um die Leistung beim Laden von Daten oder bei Abfragen, die an die Systeme gesendet werden, zu optimieren.Sie werden verstehen, wie wichtig es ist, Sicherheit zu implementieren, um sicherzustellen, dass die Daten in Ruhe oder während des Transports geschützt sind. Teilnehmer zeigen dann, wie die Daten in einem Analysesystem zum Erstellen von Dashboards oder zum Erstellen von Vorhersagemodellen in Azure Synapse Analytics verwendet werden können.

ACHTUNG: Das Training DP-203T00 wird nur noch bis 31.12.2025 von Microsoft unterstützt. Das  Examen DP-203: Data Engineering on Microsoft Azure, das nach Bestehen zur Zertifizierung als Microsoft Certified: Azure Data Engineer Associate führte, konnten Sie nur bis 31.03.2025 ablegen.

Die Teilnahme an Examen und Zertifizierung sind optional und die Prüfungsgebühr ist nicht im Seminarpreis enthalten.

  • Microsoft Training
  • Zertifizierung
Wer hier richtig ist
Die primäre Zielgruppe für diesen Kurs sind Datenfachleute, Datenarchitekten und Experten für Geschäftsintelligenz, die mehr über Daten-Engineering und das Erstellen von Analyselösungen mit Hilfe von Datenplattformtechnologien in Microsoft Azure erfahren möchten. Die sekundäre Zielgruppe für diesen Kurs sind Datenanalysten und Datenwissenschaftler, die mit auf Microsoft Azure basierenden Analyselösungen arbeiten.
Die Themen Einführung in Azure Synapse Analytics · Beschreiben von Azure Databricks · Einführung in den Azure Datenmeer-Speicher · Die Architektur des Datenmeeres beschreiben...

Untersuchen von Rechen- und Speicheroptionen für Daten-Engineering-Workloads:

Dieses Modul bietet einen Überblick über die Optionen der Azure-Computer- und Speichertechnologie, die Dateningenieuren zur Verfügung stehen, die analytische Workloads erstellen. In diesem Modul erfahren Sie, wie man das Datenmeer strukturiert und die Dateien für Explorations-, Streaming- und Batch-Workloads optimieren kann. Die Teilnehmer lernen, wie man das Datenmeer in Ebenen der Datenverfeinerung organisiert, während Dateien durch Stapel- und Stream-Verarbeitung transformiert werden. Anschließend lernen sie, wie man Indizes für ihre Datensets wie CSV-, JSON- und Paket-Dateien erstellen und diese für eine mögliche Beschleunigung von Abfragen und Workloads verwenden kann.

  • Einführung in Azure Synapse Analytics
  • Beschreiben von Azure Databricks
  • Einführung in den Azure Datenmeer-Speicher
  • Die Architektur des Datenmeeres beschreiben
  • Arbeiten mit Datenströmen, mit Hilfe von Azure Stream Analytics


Entwerfen und Implementieren der Ausgabeebenen:

In diesem Modul erfahren Sie, wie man Datenspeicher in einem modernen Daten-Warehouse entwerfen und implementieren kann, um analytische Workloads zu optimieren. Die Teilnehmer lernen, wie man ein mehrdimensionales Schema zum Speichern von Fakten- und Dimensionsdaten entwirft. Anschließend lernen die Teilnehmer, wie sich langsam ändernde Dimensionen durch inkrementelles Laden von Daten aus Azure Data Factory gefüllt werden.

  • Entwerfen eines mehrdimensionales Schemas, um analytische Workloads zu optimieren
  • Codefreie Transformation im Maßstab mit Azure Data Factory
  • Sich langsam ändernde Dimensionen in Azure Synapse Analytics-Pipelines füllen


Überlegungen zum Daten-Engineering für Quelldateien:

In diesem Modul werden Überlegungen zum Daten- Engineering erläutert, die beim Laden von Daten in ein modernes Daten-Warehouse häufig vorkommen, das analytisch aus in einem Azure Datenmeer gespeicherten Dateien geladen wird, und Grundlagen zu Sicherheitsaspekten beim Speichern von im Datenmeer gespeicherten Dateien vermittelt.

  • Entwerfen Sie ein modernes Daten-Warehouse mit Azure Synapse Analytics
  • Sichern Sie ein Daten-Warehouse in Azure Synapse Analytics


Führen Sie interaktive Abfragen mit serverlosen SQL-Pools von Azure Synapse Analytics aus:

In diesem Modul lernen die Teilnehmer anhand von T-SQL-Anweisungen, die von einem serverlosen SQL-Pool in Azure Synapse Analytics ausgeführt werden, wie man mit Dateien arbeitet, die im Datenmeer und in externen Dateiquellen gespeichert sind. Die Teilnehmer fragen Pakete ab, die in einem Datenmeer gespeichert sind, sowie CSV-Dateien, die in einem externen Datenspeicher gespeichert sind. Als Nächstes erstellen sie Azure Active Directory-Sicherheitsgruppen und erzwingen den Zugriff auf Dateien im Datenmeer über die rollenbasierte Zugriffssteuerung (RBAC) und Zugriffssteuerungslisten (ACLs).

  • Erkunden Sie die Funktionen der serverlosen SQL-Pools von Azure Synapse
  • Abfragen von Daten im Meer mit Hilfe von serverlosen SQL-Pools von Azure Synapse
  • Erstellen Sie Metadatenobjekte in serverlosen SQL-Pools von Azure Synapse
  • Sichern Sie Daten und verwalten Sie Benutzer in serverlosen SQL-Pools von Azure Synapse


Durchsuchen, Transformieren und Laden von Daten in das Daten-Warehouse mit Apache Spark:

In diesem Modul erfahren Sie, wie man in einem Datenmeer gespeicherte Daten untersucht, die Daten transformiert und Daten in einen relationalen Datenspeicher lädt. Die Teilnehmer werden Parkett- und JSON-Dateien untersuchen und Techniken verwenden, um JSON-Dateien mit hierarchischen Strukturen abzufragen und zu transformieren. Anschließend verwenden die Teilnehmer Apache Spark, um Daten in das Daten-Warehouse zu laden und Parkettdaten im Datenmeer mit Daten im dedizierten SQL-Pool zu verknüpfen.

 

  • Grundlegendes zum Engineering großer Datenmengen mit Apache Spark in Azure Synapse Analytics
  • Daten mit Apache Spark-Notebooks in Azure Synapse Analytics aufnehmen
  • Daten mit Data Frames in Apache Spark-Pools in Azure Synapse Analytics transformieren
  • SQL- und Apache Spark-Pools in Azure Synapse Analytics integrieren


Daten-Exploration und -Transformation in Azure Databricks:

In diesem Modul erfahren Sie, wie man mit verschiedenen Apache Spark Data Frame-Methoden Daten in Azure Databricks untersuchen und transformieren kann. Die Teilnehmer lernen, wie man Standard-Data Frame-Methoden zum Erkunden und Transformieren von Daten ausführen kann. Sie lernen auch, wie man erweiterte Aufgaben ausführen, z. B. doppelte Daten entfernen, Datums- / Zeitwerte bearbeiten, Spalten umbenennen und Daten aggregieren kann.

  • Beschreiben von Azure Databricks
  • Lesen und Schreiben von Daten in Azure Databricks
  • Arbeiten mit Data Frames in Azure Databricks
  • Arbeiten mit erweiterten Data Frames-Methoden in Azure Databricks


Daten aufnehmen und in das Daten-Warehouse laden:

In diesem Modul lernen die Teilnehmer, wie man Daten über T-SQL-Skripte und Synapse Analytics-Integrationspipelines in das Daten-Warehouse aufnimmt. Die Teilnehmer lernen, wie Daten mit PolyBase und COPY mit Hilfe von T-SQL in dedizierte Synapse-SQL-Pools geladen werden. Die Teilnehmer werden außerdem lernen, wie das Workload-Management, zusammen mit einer Kopieraktivität in einer Azure Synapse-Pipeline für die Datenaufnahme im Petabyte-Bereich verwendet wird.

  • Verwenden Sie bewährte Praktiken zum Laden von Daten in Azure Synapse Analytics
  • Aufnahme im Petabyte-Bereich mit Azure Data Factory


Transformieren von Daten mit Azure Data Factory- oder Azure Synapse-Pipelines

In diesem Modul lernen die Teilnehmer, wie man Datenintegrations-Pipelines erstellt, um sie aus mehreren Datenquellen aufzunehmen, Daten mit Hilfe von Mapping-Datenflüssen zu transformieren und Daten in eine oder mehrere Datensenken zu verschieben.
 

  • Datenintegration mit Azure Data Factory- oder Azure Synapse-Pipelines
  • Codefreie Transformation im Maßstab mit Azure Data Factory- oder Azure Synapse-Pipelines


Verschieben von Daten in Azure Synapse-Pipelines orchestrieren:

In diesem Modul erfahren Sie, wie man verknüpfte Services erstellt und die Datenverschiebung und -transformation mit Hilfe von Notebooks in Azure Synapse-Pipelines koordiniert. Orchestrieren der Datenverschiebung und -transformation in Azure Data Factory

Optimieren Sie die Abfrageleistung mit dedizierten SQL-Pools in Azure Synapse:

In diesem Modul lernen die Teilnehmer Strategien zur Optimierung der Datenspeicherung und -verarbeitung bei Verwendung dedizierter SQL-Pools in Azure Synapse Analytics. Die Teilnehmer lernen zu verstehen, wie Entwicklerfunktionen wie Fenster- und HyperLogLog-Funktionen, bewährte Methoden zum Laden von Daten verwendet werden und die Abfrageleistung optimiert und verbessert wird.

  • Optimierung der Leistung der Abfragen des Daten-Warehouses in Azure Synapse Analytics
  • Kenntnis der Data Warehouse Entwickler-Features von Azure Synapse Analytics


Analyse und Optimierung der Daten Warehouse Speicherung:

In diesem Modul lernen die Teilnehmer, wie man die Datenspeicherung von Azure Synapse dezidiertem SQL analysiert und optimiert. Die Teilnehmer werden Techniken erlernen, um die Verwendung des Tabellenbereichs und die Speicherdetails des Spaltenspeichers zu verstehen. Als Nächstes werden die Teilnehmer die Speicheranforderungen zwischen identischen Tabellen vergleichen, die unterschiedliche Datentypen verwenden. Schließlich werden die Teilnehmer beobachten, welche Auswirkungen materialisierte Ansichten haben, wenn sie anstelle komplexer Abfragen ausgeführt werden, und lernen, wie durch Optimierung der Löschvorgänge eine umfangreiche Protokollierung vermieden werden kann.

Analysieren und optimieren Sie den Daten-Warehouse-Speicher in Azure Synapse Analytics

Unterstützung von HTAP (Hybrid Transactional Analytical Processing ) mit Azure Synapse Links:

In diesem Modul erfahren die Teilnehmer, wie Azure Synapse Link die nahtlose Verbindung eines Azure Cosmos DB-Kontos mit einem Synapse-Arbeitsbereich ermöglicht. Die Teilnehmer lernen zu verstehen, wie man die Synapse-Verknüpfung aktiviert und konfiguriert und wie der Azure Cosmos DB-Analysespeicher mit Apache Spark und serverlosem SQL abgefragt wird.
 

  • Entwerfen Sie hybride Transaktions- und Analyseverarbeitung mit Azure Synapse Analytics
  • Konfigurieren Sie Azure Synapse Link mit Azure Cosmos DB
  • Fragen Sie Azure Cosmos DB mit Apache Spark-Pools ab
  • Fragen Sie Azure Cosmos DB mit serverlosen SQL-Pools ab


End-to-End-Sicherheit mit Azure Synapse Analytics:

In diesem Modul lernen die Teilnehmer, wie man einen Synapse Analytics-Arbeitsbereich und seine unterstützende Infrastruktur sichert. Der Schüler beobachtet den SQL Active Directory-Administrator, verwaltet IP-Firewall-Regeln, verwaltet Geheimnisse mit Azure Key Vault und greift über einen mit Key Vault verknüpften Service und Pipeline-Aktivitäten auf diese Geheimnisse zu. Die Teilnehmer werden verstehen, wie Sicherheit auf Spaltenebene, Sicherheit auf Zeilenebene und dynamische Datenmaskierung implementiert wird, wenn dedizierte SQL-Pools verwendet werden.

  • Sichern Sie ein Daten-Warehouse in Azure Synapse Analytics
  • Konfigurieren und Verwalten von Geheimnissen in Azure Key Vault
  • Implementieren Sie Compliance-Kontrollen für sensible Daten


Echtzeit-Stream-Verarbeitung mit Stream Analytics:

In diesem Modul lernen die Teilnehmer, wie man Streaming-Daten mit Azure Stream Analytics verarbeitet. Die Teilnehmer nehmen Fahrzeug Telemetriedaten in Event Hubs auf und verarbeiten diese Daten dann in Echtzeit mit Hilfe verschiedener Fensterfunktionen in Azure Stream Analytics. Sie geben die Daten an Azure Synapse Analytics aus. Schließlich lernen die Teilnehmer, wie man den Stream Analytics-Job skaliert, um den Durchsatz zu erhöhen.

  • Aktivieren Sie zuverlässiges Messaging für Big Data-Anwendungen mit Hilfe von Azure Event Hubs
  • Arbeiten Sie mit Datenströmen mit Hilfe von Azure Stream Analytics
  • Datenströme mit Azure Stream Analytics aufnehmen


Erstellen einer Stream-Verarbeitungslösung mit Event Hubs und Azure Databricks:

In diesem Modul lernen die Teilnehmer, wie man Streaming-Daten mit Event Hubs und Spark Structured Streaming in Azure Databricks maßstabsgetreu erfassen und verarbeiten kann. Der Teilnehmer lernen die wichtigsten Funktionen und Verwendungszwecke von Structured Streaming kennen. Die Teilnehmer implementieren Schiebefenster, um Datenblöcke zu aggregieren und wenden Wasserzeichen an, um veraltete Daten zu entfernen. Schließlich stellen die Teilnehmer eine Verbindung zu Event Hubs her, um Streams zu lesen und zu schreiben.

Verarbeiten von Streaming-Daten mit strukturiertem Azure Databricks-Streaming

Erstellen von Berichten mit Hilfe der Power BI-Integration mit Azure Synapse Analytics:

In diesem Modul lernen die Teilnehmer, wie man Power BI in ihren Synapse-Arbeitsbereich integriert, um Berichte in Power BI zu erstellen. Die Teilnehmer erstellen eine neue Datenquelle und einen neuen Power BI-Bericht in Synapse Studio. Anschließend lernen die Teilnehmer, wie man die Abfrageleistung durch materialisierte Ansichten und Zwischenspeichern von Ergebnismengen verbessern kann. Schließlich werden die Teilnehmer das Datenmeer mit serverlosen SQL-Pools erkunden und Visualisierungen für diese Daten in Power BI erstellen.

Erstellen Sie Berichte mit Power BI mit Hilfe der Integration in Azure Synapse Analytics 

Integrierte maschinelle Lernprozesse in Azure Synapse Analytics ausführen:

In diesem Modul wird die integrierte, durchgängige Erfahrung mit Azure maschinellen Lernen und Azure kognitiven Services in Azure Synapse Analytics erläutert. Sie erfahren, wie Sie einen Azure Synapse Analytics-Arbeitsbereich mithilfe eines verknüpften Services mit einem Azure Machine Learning-Arbeitsbereich verbinden und anschließend ein automatisiertes ML-Experiment auslösen, das Daten aus einer Spark-Tabelle verwendet. Außerdem erfahren Sie, wie man trainierte Modelle aus Azure-maschiniertem Lernen oder Azure kognitiven Services verwenden, um Daten in einer SQL-Pooltabelle anzureichern und anschließend mit Hilfe von Power BI Prognoseergebnisse bereitzustellen.

Verwenden Sie den integrierten maschinellen Lernprozess in Azure Synapse Analytics

Empfohlene Vorkenntnisse

Erfolgreiche Teilnehmer beginnen diesen Kurs mit Kenntnissen in Cloud Computing und Kerndatenkonzepten sowie Berufserfahrung mit Datenlösungen.

Wer die Vorkenntnisse noch nicht hat kann diese in folgenden Kursen erwerben:

Organisatorisches

Lernformate

Unsere Seminare bieten dir maximale Flexibilität: Du kannst zwischen Live-Online und Vor Ort in unseren modernen Schulungszentren im D-A-CH Raum wählen. Beide Formate garantieren dir die gleiche hohe Qualität und interaktive Lernerfahrung.

Schulungsarten

Wir bieten dir verschiedene Schulungsarten: Offene Seminare, Firmenseminare für Teams und Inhouse-Schulungen direkt bei dir vor Ort. So findest du genau das Format, das zu deinen Bedürfnissen passt.

Aktuelle Software

In unseren offenen Kursen arbeiten wir mit der aktuellsten Software-Version. So lernst du direkt mit den Tools und Features, die du auch in deinem Arbeitsalltag verwendest – praxisnah und zukunftsorientiert. Bei Inhouse- und Firmenschulungen bestimmt ihr die Version.

Deine Vorteile

Zufriedenheitsgarantie

Wir sind von unserer Qualität überzeugt. Sollte ein Training einmal nicht deinen Erwartungen entsprechen, bieten wir dir an, den Kurs kostenlos zu wiederholen oder ein anderes Training zu besuchen. Ohne Risiko, ohne Diskussion.

Inklusivleistungen

Deine Teilnahme beinhaltet: Schulungsmaterial, Zertifikat, Verpflegung (bei Präsenzveranstaltungen) und persönliche Betreuung durch unsere Trainer und unser Orga-Team. Alles aus einer Hand – keine versteckten Kosten.

Lernen von Experten

Unsere Trainer sind zertifizierte und erfahrene Profis mit jahrelanger Berufserfahrung. Sie vermitteln dir in den Kursen nicht nur theoretisches Wissen, sondern teilen ihre Erfahrungen aus realen Projekten und helfen dir, das Gelernte direkt in deiner täglichen Arbeit anzuwenden. Das ist kein Werbeversprechen, sondern unser Anspruch. Am besten siehst du das in unseren Bewertungen, z.B. auch bei Google.

Keine Vorkasse

Du zahlst erst nach dem Seminar. Keine Vorkasse, keine Vorauszahlung – so kannst du sicher sein, dass du nur für das bezahlst, was du auch wirklich erhalten hast. Die Rechnung erhälst du erst nach Kursbeginn.

Max. 8 Teilnehmende

Wir setzen auf kleine Gruppen, damit jeder Teilnehmer die Aufmerksamkeit bekommt, die er verdient. So haben wir mehr Zeit für deine individuellen Fragen und können gezielt auf deine Bedürfnisse eingehen.

Inhouse-Schulungen & Firmenseminare

Inhouse-Schulungen

Buche diese Schulung als maßgeschneiderte Inhouse-Schulung für dein Unternehmen oder deine Behörde. Unsere Trainer kommen zu dir und führen die Schulung in deinen Räumlichkeiten durch.

Vorteile:

  • Maßgeschneiderte Inhalte für dein Unternehmen
  • Flexible Terminplanung nach euren Bedürfnissen
  • Kosteneffizient bei mehreren Teilnehmern
  • Schulung in vertrauter Umgebung
  • Fokus auf deine spezifischen Anforderungen

Firmen-Seminare

Firmen-Seminare finden an einem unserer Schulungsstandorte statt, sind aber maßgeschneidert für dich und exklusiv für dein Team. Sie können auch online stattfinden.

Ideal für:

  • Geschlossene Gruppen aus einem Unternehmen / Behörde
  • Individuelle Terminplanung für dein Team
  • An unseren Schulungsstandorten oder Online
  • Angepasste Inhalte für deine Anforderungen

Unser Qualitätsversprechen: Wissen, das in der Praxis funktioniert

Aus der Praxis für die Praxis

Schluss mit theoretischem Ballast. Wir trainieren dich für reale IT-Herausforderungen, nicht für Multiple-Choice-Tests. Unsere Trainer vermitteln dir genau das Wissen, das am nächsten Montagmorgen im Job wirklich funktioniert.

Individuell statt "Schema F"

Deine Fragen passen nicht ins Standard-Skript? Bei uns schon. Wir verzichten auf starre Lehrpläne und geben deinen konkreten Projekt-Fragen Raum. Unsere Trainer passen die Inhalte flexibel an das an, was dich und dein Team aktuell weiterbringt.

Maximale Freiheit: Remote oder vor Ort

Lerne so, wie es in deinen Alltag passt – ohne Reise-Stress und Zeitverlust. Egal ob remote, hybrid oder präsent vor Ort: Wir garantieren dir ein nahtloses und effektives Lernerlebnis, egal von wo du dich zuschaltest.

Mit Zufriedenheitsgarantie

Wir sind von unserer Qualität überzeugt – und wollen, dass du es auch bist. Sollte ein Training einmal nicht deinen Erwartungen entsprechen, bieten wir dir an, den Kurs kostenlos zu wiederholen oder ein anderes Training zu besuchen. Ohne Risiko, ohne Diskussion.

NOCH FRAGEN?

Rufe mich an oder schreibe mir eine E-Mail.

Michaela Berger

Michaela Berger

Über 20.000 Unternehmen und Behörden vertrauen auf uns

Alle Referenzen
Siemens Logo
Telekom Logo
Mercedes Logo
Infineon Logo
MAN Logo
Fraunhofer Logo
ADAC Logo
Munich Re Logo
Deutsche Bahn Logo
Siemens Logo
Telekom Logo
Mercedes Logo
Infineon Logo
MAN Logo
Fraunhofer Logo
ADAC Logo
Munich Re Logo
Deutsche Bahn Logo