Data Driven Python:
Grundkurs

Data Driven Python:
Grundkurs

Beherrschen Sie Ihr Datenfundament mit Python und bereiten Sie sich auf BigData vor.

Mit unserem von Experten geleiteten DBT-Schulungsprogramm
vermitteln wir Ihnen die neuesten Kenntnisse über moderne Anwendungsbereitstellung und -verwaltung.
Profitieren Sie von unserem reichen Erfahrungsschatz aus unzähligen Kundenprojekten:

Erleben Sie eine ausgewogene Mischung aus Theorie, Live-Demonstrationen und praktischen Übungen.

Entwerfen und implementieren Sie datengesteuerte Projekte und beherrschen Sie Python für Datenverarbeitung, Governance und Architektur.

Lernen Sie, mit verschiedenen Datenbanken zu arbeiten, von relationalen bis hin zu NoSQL, und effiziente ETL-Workflows zu orchestrieren.

Erstellen Sie skalierbare, ereignisgesteuerte Datendienste mit sicheren APIs und bewältigen Sie reale Big Data-Herausforderungen.

Data Driven Python Training – kommende Termine

11.11.
– 12.11.2024

Data Driven Python in 2 Tagen

13.01.
– 14.01.2025

Data Driven Python in 2 Tagen

26.02.
– 27.02.2025

Data Driven Python in 2 Tagen

Dieser Kurs richtet sich an Entwickler und Dateningenieure, die ihre Python-Kenntnisse für datengesteuerte Projekte ausbauen möchten. Wenn Sie über solide Python-Kenntnisse verfügen und tiefer in die Entwicklung von Datenarchitekturen, die Arbeit mit Datenbanken und die Verwaltung von Datenpipelines eintauchen möchten, ist dieser Kurs genau das Richtige für Sie. Ideal für Fachleute, die ihre Kenntnisse im Bereich Data Engineering und Big Data erweitern möchten.

Praktische Anwendungen, die wir in diesem Training behandeln werden:

  • 1

    Praktische Erfahrung mit den Python-Grundlagen für den Umgang mit Daten, einschließlich Listen, Dictionaries, Tupeln, Sets und Datei-Interaktionen.

  • 2

    Verständnis von Datenarchitekturkonzepten, wie Monolith vs. Microservices und Data Lakes vs. Datenbanken.

  • 3

    Kenntnisse der verschiedenen Datenbanktypen, ihrer Eigenschaften und der Auswahl der richtigen Datenbank für Ihre Bedürfnisse.

  • 4

    Praktische Erfahrung mit Tools zur Workflow-Orchestrierung wie Apache Airflow und der Überwachung von Datenpipelines.

Nach diesem Kurs werden Sie in der Lage sein:

  • 1
    robuste datengesteuerte Projekte mit Python zu entwerfen und entwickeln
  • 2
    die Bedeutung von Data Governance, Lineage und Architektur in der modernen Softwareentwicklung zu verstehen
  • 3
    mit verschiedenen Datenbanken, einschließlich relationalen, dokumentenbasierten, zeitseriellen und Blob-Speichern zu arbeiten
  • 4
    ETL-Prozesse und Tools zur Workflow-Orchestrierung für eine effiziente Datenverarbeitung zu implementieren
  • 5
    ereignisgesteuerte Datenverarbeitungspipelines mit Kafka als MessageBus zu entwerfen und zu implementieren
  • 6
    sichere APIs für den Datenzugriff und entwerfen Sie skalierbare Datendienste und semantische Schichten zu entwickeln

Das Data Driven Python Training ist perfekt für Sie, wenn…

  • Sie Grundkenntnisse in Python haben
  • Sie motiviert sind, mit Kafka und ereignisbasierten Systemen zu arbeiten
  • Sie offen für Feedback sind und kollaborativ lernen wollen

Das Data Driven Python Training ist nicht für Sie geeignet, wenn…

  • Sie Anfänger in der Programmierung sind und nicht über grundlegende Python-Kenntnisse verfügen.
  • Sie die Grundlagen der datengesteuerten Programmierung mit Python nicht erlernen und sich keinen Überblick über die verschiedenen Möglichkeiten des Umgangs mit Daten verschaffen wollen
  • Sie einen Schwerpunkt auf Big Data-Anwendungen ohne die empfohlenen Grundkenntnisse legen

Agenda

Training

Für kleine Unternehmen und Teams, die neu in das Thema einsteigen.

  • Die Bedeutung von Daten in der modernen Softwareentwicklung
  • Warum Python eine bevorzugte Sprache für datengesteuerte Projekte ist
  • Grundlegende Python-Syntax und Kontrollstrukturen
  • Einführung in die Python-Datentypen mit Schwerpunkt auf der Datenverarbeitung (Listen, Dictionaries, Tupel, Sets)
  • Python für die Interaktion mit Dateien und Verzeichnissen verwenden
  • Erweiterte Funktionen der eingebauten Datentypen von Python
  • Wann und warum Sie bestimmte Datentypen für Datenaufgaben verwenden sollten
  • Definitionen und Unterschiede: Datenbank, Data Lake, Data Warehouse, Lakehouse
  • Verständnis von Data Lineage und Data Governance
  • Die Grundsätze der Datenarchitektur
  • Vergleich zwischen traditionellen und modernen Datenarchitekturen: Monolith vs. Microservices, Data Lakes vs. Datenbanken
  • Merkmale von relationalen, dokumentenbasierten, Zeitreihen- und Blob-Speichern
  • ACID-Eigenschaften und ihre Bedeutung für verschiedene Datenbanktypen
  • Auswahl der richtigen Datenbank für Ihre Datenanforderungen
  • Detaillierte Erforschung der ACID-Eigenschaften
  • Grundlagen der Aufnahme, Umwandlung und des Ladens von Daten (ETL)
  • Einführung in Tools zur Workflow-Orchestrierung (z. B. Apache Airflow)
  • Einführung in Datenumwandlung und Datenverträge mit DBT (Data Build Tool)
  • Bewährte Verfahren für die Überwachung, das Testen und die Wartung von Datenpipelines
  • Grundsätze der ereignisgesteuerten Datenverarbeitung, wie man sie verwendet und wann man sie vermeiden sollte
  • Einführung in Kafka als MessageBus
  • Streaming von Batch-Daten mit Python, Faust und wie man den Prozess überwacht
  • Die Grundlagen des Designs von Datenservices
  • Überblick über die Kommunikationsprotokolle von TCP bis REST und gRPC
  • Implementierung von APIs für den Datenzugriff.
  • Sicherheit und Autorisierung für Datendienste.
  • Einführung in Big Data und seine Herausforderungen
  • Techniken für die Arbeit mit großen Datensätzen, die nicht in den Speicher passen
  • Nutzung von Dask für parallele Berechnungen und die Verarbeitung großer Datenmengen
  • Ereignisgesteuerte Architektur für die Skalierung von Datenverarbeitungspipelines

Costumized

Für große Unternehmen und Teams, die besondere Herausforderungen meistern wollen.

  • Ihr Ökosystem
  • Ihre Best Practices
  • Ihre Probleme und Themen
  • Die Bedeutung von Daten in der modernen Softwareentwicklung
  • Warum Python eine bevorzugte Sprache für datengesteuerte Projekte ist
  • Grundlegende Python-Syntax und Kontrollstrukturen
  • Einführung in die Python-Datentypen mit Schwerpunkt auf der Datenverarbeitung (Listen, Dictionaries, Tupel, Sets)
  • Python für die Interaktion mit Dateien und Verzeichnissen verwenden
  • Erweiterte Funktionen der eingebauten Datentypen von Python
  • Wann und warum Sie bestimmte Datentypen für Datenaufgaben verwenden sollten
  • Definitionen und Unterschiede: Datenbank, Data Lake, Data Warehouse, Lakehouse
  • Verständnis von Data Lineage und Data Governance
  • Die Grundsätze der Datenarchitektur
  • Vergleich zwischen traditionellen und modernen Datenarchitekturen: Monolith vs. Microservices, Data Lakes vs. Datenbanken
  • Merkmale von relationalen, dokumentenbasierten, Zeitreihen- und Blob-Speichern
  • ACID-Eigenschaften und ihre Bedeutung für verschiedene Datenbanktypen
  • Auswahl der richtigen Datenbank für Ihre Datenanforderungen
  • Detaillierte Erforschung der ACID-Eigenschaften
  • Grundlagen der Aufnahme, Umwandlung und des Ladens von Daten (ETL)
  • Einführung in Tools zur Workflow-Orchestrierung (z. B. Apache Airflow)
  • Einführung in Datenumwandlung und Datenverträge mit DBT (Data Build Tool)
  • Bewährte Verfahren für die Überwachung, das Testen und die Wartung von Datenpipelines
  • Grundsätze der ereignisgesteuerten Datenverarbeitung, wie man sie verwendet und wann man sie vermeiden sollte
  • Einführung in Kafka als MessageBus
  • Streaming von Batch-Daten mit Python, Faust und wie man den Prozess überwacht
  • Die Grundlagen des Designs von Datenservices
  • Überblick über die Kommunikationsprotokolle von TCP bis REST und gRPC
  • Implementierung von APIs für den Datenzugriff.
  • Sicherheit und Autorisierung für Datendienste.
  • Einführung in Big Data und seine Herausforderungen
  • Techniken für die Arbeit mit großen Datensätzen, die nicht in den Speicher passen
  • Nutzung von Dask für parallele Berechnungen und die Verarbeitung großer Datenmengen
  • Ereignisgesteuerte Architektur für die Skalierung von Datenverarbeitungspipelines

Das sagen unsere zufriedenen Schulungsteilnehmer

A1 Telekom Austria AG

Reinhard Burgmann
Head of Data Ecosystem

„UTA hat mein Team bei der Entwicklung des Migrationsplans für die Umstellung unseres Data Lake auf die Public Cloud unterstützt.

Das herausragende Maß an Fachwissen sowohl auf technischer als auch auf organisatorischer Ebene gewährleistete einen gut strukturierten und realistischen Migrationsplan, einschließlich Zeitplan, Meilensteine und Aufwände.

Die Befähigung meines Teams stand im Mittelpunkt einer sehr reibungslosen Zusammenarbeit. Durch UTA haben wir unser Ziel schneller erreicht und die Risiken des Migrationsprojekts erheblich reduziert.

Ich kann die Dienste von UTA nur empfehlen!“

Vattenfall

Bernard Benning
BA Heat

„Ich habe kürzlich an dem von Ultra Tendency veranstalteten Online-Kafka-Schulungstag von Vattenfall IT teilgenommen und es war eine bereichernde Erfahrung.

Der Trainer, Ahmed, hat die Theorie hinter Kafka fantastisch erklärt, und der Schwerpunkt auf der praktischen Anwendung war großartig. Die praktischen Programmierübungen waren besonders hilfreich, und ich habe noch nie ein Training mit so vielen interaktiven Beispielen erlebt!

Insgesamt kann ich diese Schulung jedem empfehlen, der seine Kafka-Kenntnisse interaktiv verbessern und wertvolle Fähigkeiten erwerben möchte.“

VP Bank

Eisele Peer
Lead Architect Head of IT Integration Development

„Das MLOps-Training hat unsere Erwartungen übertroffen!

Es bot eine perfekte Mischung aus Überblick, praxisnahen Codingbeispielen und realen Anwendungsfällen. Der Trainer beantwortete alle Fragen kompetent und passte die Inhalte an unsere Unternehmensinfrastruktur an.

Dieses Training hat uns nicht nur Wissen vermittelt, sondern auch praktische Fähigkeiten, die wir sofort anwenden können.“

Ihre Investition

1949 €zzgl MwSt.
  • Gewinnen Sie ein tiefes Verständnis von Python für Datenaufgaben, einschließlich der Arbeit mit wichtigen Datenstrukturen und Dateisystemen.
  • Erfahren Sie mehr über moderne Datenarchitekturen und navigieren Sie durch die Komplexität von Data Governance, Lineage und Datenbankauswahl.
  • Beherrschen Sie praktische Daten-Workflows mit Tools wie Apache Airflow und Kafka, um robuste Daten-Pipelines aufzubauen.
  • Erforschen Sie fortgeschrittene Big Data-Verarbeitungstechniken mit Python, einschließlich paralleler Berechnungen mit Dask und ereignisgesteuerter Architektur für große Datensätze.

Lernen Sie Ihre Trainer kennen

Marvin Taschenberger

Professional Software Architect, Ultra Tendency

Hudhaifa Ahmed

Senior Lead Big Data Developer Berlin Territory Manager, Ultra Tendency

Matthias Baumann

Chief Technology Officer Principal Big Data Solutions Architect Lead, Ultra Tendency

Erforderliche Hardware und Infrastruktur für Ihr Docker-Training

  • Sie benötigen einen PC oder Mac mit einem Webbrowser und MS Teams.
  • Während der Schulung stellen wir Ihnen eine virtuelle Maschine mit den erforderlichen lokalen Abhängigkeiten, Diensten und Root-Zugriffen zur Verfügung.
  • Auf dieser VM läuft ein Kubernetes-Cluster, auf dem Sie die Trainingsanweisungen testen und ausführen können.
  • Sie können über einen Browser oder SSH auf die Maschine zugreifen, wenn Sie möchten und die Netzwerkbeschränkungen dies zulassen.