Data Lakehouse für Datenexperten

Data Lakehouse für Datenexperten

Entdecken Sie Data Lakehouses, die nächste Generation einer effizienten, skalierbaren und flexiblen Datenverwaltungsarchitektur.

Mit unserem von Experten geleiteten Schulungsprogramm, das Sie mit den neuesten Kenntnissen über die Bereitstellung und Verwaltung moderner Anwendungen ausstattet. Profitieren Sie von unserem umfangreichen Erfahrungsschatz aus unzähligen Kundenprojekten:

Erleben Sie eine ausgewogene Mischung aus Theorie, Live-Demonstrationen und praktischen Übungen.

Lernen Sie, zwischen Data Lakes, Data Warehouses und Data Lakehouses zu unterscheiden, um die Vorteile der einzelnen Systeme zu nutzen.

Erwerben Sie praktische Kenntnisse in Delta Lake und Apache Iceberg, um wichtige Funktionen wie ACID-Transaktionen und Zeitreisen zu implementieren.

Beherrschen Sie Strategien zur Optimierung der Abfrageleistung und der Datenspeicherverwaltung in Data Lakehouse-Umgebungen.

Data Lakehouse für Datenexperten – kommende Termine

09.12.2024

Data Lakehouses für Datenexperten

17.01.2025

Data Lakehouses für Datenexperten

20.02.2025

Data Lakehouses für Datenexperten

Diese Schulung richtet sich an Dateningenieure, Datenarchitekten und Datenwissenschaftler, die ihre Fähigkeiten im Bereich Datenmanagement mit modernen, skalierbaren Architekturen verbessern möchten. Dieser Kurs ist ideal für Fachleute, die mit der Speicherung und Verarbeitung großer Datenmengen befasst sind. Er vermittelt praktische Ansätze zur Erstellung flexibler, effizienter Speicherlösungen, die eine Brücke zwischen traditionellen und modernen Datenarchitekturen schlagen. Wenn Sie bereits Erfahrung mit Data Lakes oder Warehouses haben und bereit sind, zu Data Lakehouses überzugehen, wird dieser Kurs Sie bei jedem Schritt begleiten.

Praktische Anwendungen, die wir in der Schulung behandeln werden:

  • 1

    Einrichten von Delta Lake- und Apache Iceberg-Umgebungen für das Datenmanagement.

  • 2
    Implementierung und Testen von ACID-Transaktionen in Delta Lake.
  • 3
    Verwendung der Zeitreisefunktion, um historische Daten abzufragen.
  • 4
    Verwaltung der Schema-Evolution und versteckter Partitionierung in Apache Iceberg.
  • 5
    Optimierung der Abfrageleistung und Datenverwaltung.

Nach diesem Kurs werden Sie in der Lage sein:

  • 1
    Data Lakes, Data Warehouses und Data Lakehouses zu definieren und voneinander zu unterscheiden.
  • 2
    zu erklären, warum Data Lakehouses nützlich sind und wie sie die Einschränkungen traditioneller Datenarchitekturen beheben.
  • 3
    Delta Lake- und Apache Iceberg-Umgebungen einzurichten und zu nutzen.
  • 4
    wichtige Funktionen wie ACID-Transaktionen, Zeitreisen und Schema-Evolution in Delta Lake und Apache Iceberg zu implementieren.
  • 5
    die Leistung zu optimieren und große Datenmengen effizient in einer Data Lakehouse-Umgebung zu verwalten.

Das Data Lakehouse Training ist perfekt für Sie, wenn…

  • Sie ein Data Engineer, Data Architect oder Data Scientist sind, der sein Wissen über moderne Datenarchitekturen vertiefen möchte.
  • Sie für das Management großer Datenmengen verantwortlich sind und effizientere Speicher- und Verarbeitungslösungen erkunden.
  • Sie mit traditionellen Data Lakes oder Data Warehouses vertraut sind und den nächsten Schritt in der Evolution der Datenarchitektur verstehen möchten.

Die Data Lakehouse Schulung ist nicht für Sie geeignet, wenn…

  • Sie neu in den Konzepten der Datenverarbeitung sind und kein grundlegendes Verständnis von Datenarchitekturen haben.
  • Sie nach einem Kurs suchen, der sich auf traditionelle relationale Datenbanken konzentriert, anstatt auf moderne Speicherlösungen.
  • Sie einen rein theoretischen Kurs ohne praktische Laborarbeit bevorzugen.

Agenda

Training

Für kleine Unternehmen und Teams, die neu in das Thema einsteigen.

  • Was ist ein Data Lakehouse?
  • Warum Data Lakehouses nützlich sind
  • Wichtige Komponenten eines Data Lakehouses
  • Einführung in Delta Lake
  • Einführung in Apache Iceberg
  • Vergleich zwischen Delta Lake und Apache Iceberg
  • Einrichten einer Delta Lake-Umgebung
  • Arbeiten mit Delta Lake-Funktionen
  • Best Practices mit Delta Lake
  • Einrichten einer Apache Iceberg-Umgebung
  • Arbeiten mit Apache Iceberg-Funktionen
  • Best Practices mit Apache Iceberg
  • Einführung in Data Governance mit Unity Catalog
  • Beherrschung von Datenflüssen: Einführung in DAG-Stack
  • Öffnen von Daten von semantischen Schichten zu REST

Costumized

Für große Unternehmen und Teams, die besondere Herausforderungen meistern wollen.

  • Ihre Umgebung
  • Ihre Themen
  • Ihre Risiken
  • Was ist ein Data Lakehouse?
  • Warum Data Lakehouses nützlich sind
  • Wichtige Komponenten eines Data Lakehouses
  • Einführung in Delta Lake
  • Einführung in Apache Iceberg
  • Vergleich zwischen Delta Lake und Apache Iceberg
  • Einrichten einer Delta Lake-Umgebung
  • Arbeiten mit Delta Lake-Funktionen
  • Best Practices mit Delta Lake
  • Einrichten einer Apache Iceberg-Umgebung
  • Arbeiten mit Apache Iceberg-Funktionen
  • Best Practices mit Apache Iceberg
  • Einführung in Data Governance mit Unity Catalog
  • Beherrschung von Datenflüssen: Einführung in DAG-Stack
  • Öffnen von Daten von semantischen Schichten zu REST

Das sagen unsere zufriedenen Schulungsteilnehmer

A1 Telekom Austria AG

Reinhard Burgmann Head of Data Ecosystem

„UTA hat mein Team bei der Entwicklung des Migrationsplans für die Umstellung unseres Data Lake auf die Public Cloud unterstützt.

Das herausragende Maß an Fachwissen sowohl auf technischer als auch auf organisatorischer Ebene gewährleistete einen gut strukturierten und realistischen Migrationsplan, einschließlich Zeitplan, Meilensteine und Aufwände.

Die Befähigung meines Teams stand im Mittelpunkt einer sehr reibungslosen Zusammenarbeit. Durch UTA haben wir unser Ziel schneller erreicht und die Risiken des Migrationsprojekts erheblich reduziert.

Ich kann die Dienste von UTA nur empfehlen!“

Vattenfall

Bernard Benning BA Heat

„Ich habe kürzlich an dem von Ultra Tendency veranstalteten Online-Kafka-Schulungstag von Vattenfall IT teilgenommen und es war eine bereichernde Erfahrung.

Der Trainer, Ahmed, hat die Theorie hinter Kafka fantastisch erklärt, und der Schwerpunkt auf der praktischen Anwendung war großartig. Die praktischen Programmierübungen waren besonders hilfreich, und ich habe noch nie ein Training mit so vielen interaktiven Beispielen erlebt!

Insgesamt kann ich diese Schulung jedem empfehlen, der seine Kafka-Kenntnisse interaktiv verbessern und wertvolle Fähigkeiten erwerben möchte.“

VP Bank

Eisele PeerLead Architect Head of IT Integration Development

„Die MLOps-Schulung hat unsere Erwartungen übertroffen!

Sie bot eine perfekte Mischung aus einem Überblick, praktischen Kodierungsbeispielen und realen Anwendungsfällen. Der Trainer beantwortete alle Fragen kompetent und passte die Inhalte an die Infrastruktur unseres Unternehmens an.

Diese Schulung vermittelte uns nicht nur Wissen, sondern auch praktische Fähigkeiten, die wir sofort anwenden können.

Ihre Investition

949 € zzgl. MwSt.
  • Beginnen Sie mit einem Überblick über Data Lakehouses und erkunden Sie die Entwicklung von der traditionellen Datenspeicherung hin zu flexiblen, leistungsstarken Architekturen.
  • Tauchen Sie ein in Delta Lake und Apache Iceberg und lernen Sie ihre Architekturen und einzigartigen Funktionen für die effektive Speicherung und Abfrage von Daten kennen.
  • Implementieren Sie ACID-Transaktionen, Zeitreisen und Schemaentwicklungen, um historische Daten genau zu verwalten und abzufragen.
  • Wenden Sie Best Practices für die Optimierung der Datenleistung und die Verwaltung effizienter, groß angelegter Datenspeicher an, die auf die Anforderungen der modernen Datenverarbeitung zugeschnitten sind.

Lernen Sie Ihre Trainer kennen

Marvin Taschenberger

Professional Software Architect, Ultra Tendency

Hudhaifa Ahmed

Senior Lead Big Data Developer Berlin Territory Manager, Ultra Tendency

Matthias Baumann

Chief Technology Officer Principal Big Data Solutions Architect Lead, Ultra Tendency

Benötigte Hardware & Infrastruktur für Ihr Data Lakehouse Training

  • Sie benötigen einen PC oder Mac mit einem Webbrowser und MS Teams.
  • Während der Schulung stellen wir Ihnen eine virtuelle Maschine mit den erforderlichen lokalen Abhängigkeiten, Diensten und Root-Zugriffen zur Verfügung.
  • Auf dieser VM läuft ein Kubernetes-Cluster, auf dem Sie die Trainingsanweisungen testen und ausführen können.
  • Sie können über einen Browser oder SSH auf die Maschine zugreifen, wenn Sie möchten und die Netzwerkbeschränkungen dies zulassen.