Building a Serverless Data Lake on AWS (BSDL)

 

Zielgruppe

Dieser Kurs ist konzipiert für:

  • Solutions Architects
  • Big Data Developer
  • Data Architects und Analysts
  • Andere Datenanalyse-Experten

Voraussetzungen

Wir empfehlen, dass die Teilnehmer an diesem Kurs die folgenden Voraussetzungen erfüllen:

  • Gute praktische Kenntnisse der wichtigsten AWS-Services wie Amazon Elastic Compute Cloud (EC2) und Amazon Simple Storage Service (S3)
  • Erfahrung mit einer Programmier- oder Skriptsprache
  • Erste Kenntnisse mit dem Linux-Betriebssystem und der -Befehlszeilenschnittstelle
  • Notebook zur Teilnahme an den Übungen erforderlich, Tablets sind nicht geeignet

Kursziele

Building a Serverless Data Lake ist ein eintägiges Bootcamp für Fortgeschrittene, in dem Sie lernen, wie Sie eine Lösung für einen serverlosen Data Lake mit AWS-Services entwickeln, aufbauen und betreiben. Im Bootcamp werden Themen wie die Erfassung sowie die sichere und langfristige Speicherung großer Datenmengen von beliebigen Datenquellen behandelt, um die Voraussetzungen für die Verwendung des richtigen Tools zum Verarbeiten großer Datenmengen und für das Verständnis der für eine beinah Echtzeit-Datenanalyse verfügbaren Optionen zu schaffen.

Was Sie in diesem Kurs lernen:

  • Sammeln Sie große Datenmengen mit Diensten wie Kinesis Streams und Firehose und speichern Sie Daten sicher und langfristig in Amazon Simple Storage Service.
  • Erstellen eines Metadaten-Index Ihres Data Lakes.
  • Auswählen der besten Tools für Erfassung, Speicherung, Verarbeitung und Analyse Ihrer Daten im Data Lake.
  • Anwenden des Wissens in praktischen Übungen, bei denen praktische Erfahrung mit dem Aufbau einer Komplettlösung gesammelt werden kann.

Kursinhalt

Der Kurs behandelt die folgenden Konzepte:

  • Die wichtigsten Services zum Erstellen einer serverlosen Data Lake-Architektur
  • Eine Lösung zur Datenanalyse, die sich nach dem Erfassungs-, Speicher-, Verarbeitungs- und Analyse-Workflow richtet
  • Wiederholbare Bereitstellung von Vorlagen zur Implementierung einer Data Lake-Lösung
  • Erstellen eines Metadaten-Index und aktivieren der Suchfunktion
  • Einrichten einer großen Datenübertragungs-Pipeline für mehrere Datenquellen
  • Datentransformation mittels einfacher Funktionen, die durch Ereignisse ausgelöst werden
  • Datenverarbeitung mithilfe der für den Anwendungsfall passend ausgewählten Tools und Services
  • Verfügbare Optionen zur optimierten Analyse verarbeiteter Daten
  • Bewährte Methoden für Bereitstellung und Vorgänge
Classroom Training

Dauer 1 Tag

Preis (exkl. MwSt.)
  • Deutschland: 750,- €
 
Zum Buchen bitte auf den Ortsnamen klicken Kurstermine
Deutschland
18.11.2019 Hamburg
06.01.2020 Münster
27.01.2020 Berlin
24.02.2020 Frankfurt
23.03.2020 Hamburg
20.04.2020 München
11.05.2020 Düsseldorf
08.06.2020 Stuttgart
Schweiz
17.10.2019 Zürich
08.06.2020 Zürich
07.12.2020 Zürich