Optimieren Sie Ihre Datenprozesse mit unseren
Schulungen
Entdecken Sie unsere Fachschulungen zur Automatisierung von Workflows mit make & n8n und ETL-Prozessen unter Verwendung von Apache Airflow. Unsere Workshops bieten wertvolle Einblicke für Unternehmen, die ihre Datenverarbeitungsprozesse optimieren möchten. Nutzen Sie diese Gelegenheit zur Weiterbildung.
Die Schulungen finden regelmäßig am 1. und 2. Mittwoch im Monat zwischen 10:15 und 11:45 Uhr sowie auf Anfrage statt. Die Teilnahmegebühren für einen Kurs betragen 250 Euro pro Einzelperson. Bei einer Gruppenbuchung von mindestens fünf Teilnehmern gewähren wir einen Rabatt von 15 %. Die Kurse werden in Form von Remote-Sessions angeboten und sind grundsätzlich eingeteilt in Sitzungen von 2 mal 90 Minuten.
Buchbar sind die Kursreihen für Automatisierung & ETL-Prozesse (je 2 mal 90 Minuten).
Grundlagen der Automatisierung von Workflows mit make & n8n
Automatisierung von Workflows mit Tools wie make und n8n ermöglicht Unternehmen, repetitive Aufgaben effizient und fehlerfrei zu gestalten, wodurch Zeit gespart und Prozesse durch nahtlose Integration verschiedener Systeme und Dienste optimiert werden.
Modul 1: Grundlagen und Einführung in die Welt der Automatisierungstools
Einführung in die Automatisierung von Workflows und Überblick über die Tools make und n8n.
In diesem Modul lernen Sie, was Workflow-Automatisierung bedeutet, welche Einsatzgebiete es gibt, und wie man make und n8n installiert und einrichtet. Außerdem werden die Grundfunktionen der Tools vorgestellt und erste einfache Automatisierungsbeispiele gezeigt.
Modul 2: Workflow-Konstruktion und Datenintegration
Wichtige Konzepte zur Erstellung von Workflows und zur Integration verschiedener Datenquellen.
Dieses Modul bietet die Möglichkeit, eigene Automatisierungen zu erstellen. Es werden Trigger, Aktionen und Verzweigungen erklärt, sowie der Umgang mit Variablen und Bedingungen. Sie lernen, wie man Daten aus unterschiedlichen Quellen verbindet und einfache Datenmanipulationen innerhalb der Workflows durchführt.
Grundlagen von ETL-Prozessen mit Apache Airflow
ETL-Prozesse mit Apache Airflow helfen Unternehmen dabei, große Datenmengen systematisch zu extrahieren, zu transformieren und zu laden, um so zuverlässige Datenpipelines zu bauen, die für fundierte Analysen und datengetriebene Entscheidungen essenziell sind.
Modul 1: Grundlagen und Einführung
Einführung in ETL-Prozesse (Extract, Transform, Load) und Überblick über Apache Airflow als Orchestrierungs-Tool.
In diesem Modul lernen Sie, was ETL-Prozesse sind, warum sie wichtig sind, und wie Airflow eingesetzt wird, um Aufgaben zu planen und zu überwachen. Installation und Grundkonfiguration von Airflow werden ebenfalls behandelt.
Modul 2: DAGs und Daten-Transformationen mit pandas
Vertiefung in die Erstellung und Verwaltung von DAGs (Directed Acyclic Graphs) in Airflow sowie Einführung in Transformationsprozesse mit pandas.
Hier lernen Sie, wie man DAGs definiert und damit Abläufe in Airflow steuert. Zudem wird gezeigt, wie man mithilfe von pandas Daten innerhalb der ETL-Pipeline effizient transformieren kann, um die Ladeprozesse vorzubereiten.