Projektbeschreibung
Im Rahmen des Kapazitätsmanagements plant der Auftraggeber eine Konzeption, Entwicklung, Wartung und Erneuerung von Anwendungen für die managementgerechte Visualisierung von Kenngrößen. Insbesondere bezogen auf die Auslastung im Netz; um die Steuerungsfähigkeit speziell der Bauplanung über alle zeitlichen Horizonte zu verbessern. Dies umfasst neben den ART internen Anwendungen auch die Koordination mit anderen Bereichen zur Bedarfsanalyse sowie der Planung der technischen Umsetzung. Hierbei vor allem die Datenflüsse, Datenaufbereitungen, Datenbereitstellung und ggf. weitere Visualisierungen. Ziel des ARTs ist der Aufbau einer Datenplattform als Basis für viele vorhandene Anwendungen und noch zu spezifizierenden UseCases zur Steuerung der Auslastung. Wichtig hierbei ist die Berücksichtigung von Infrastruktur, Fahren und Bauen sowie die Betrachtung von verschiedenen Szenarien.
Das Projekt ist nach SAFe organisiert. Die einzelnen Streams und die Produktlieferung arbeiten agil nach SAFe Scrum bei einem zweiwöchigen Iterationszyklus. In diesem Rahmen sind eine Reihe von SAFe üblichen Terminen der jeweiligen Rolle und Projektlage entsprechend zu besuchen.
- Die Entwicklung erfolgt agil nach Scrum.
- Du verantwortest die Programmierung sowie Analyse und Konzeption in Abstimmung mit den fachlichen Verantwortlichen innerhalb des Teams.
- Aufbau, Weiterentwicklung und Betrieb der zentralen Datenplattform für das Capacity Management.
- Arbeit im agilen Entwicklungsteam, Einbringen von Seniorität und Wissen aus dem Bereich ETL und Datawarehousing und damit Unterstützung des (fachlich orientierten) Product Owners.
- Austausch mit den System Architekten und weiteren Kolleg:innen im interdisziplinären Team zur Entwicklung eines stabilen und zukunftssicheren Datawarehouses.
- Migration von ETL-Strecken/Data Pipelines aus existierenden Anwendungen DWH.
- Anbindung, Aufbereitung, Verknüpfung, Qualitätssicherung und Bereitstellung von Daten sowie die Abstimmung dieser mit zugehörigen Stakeholdern.
- Entwicklung basierend auf einer zukunftsgerichteten und skalierbaren AWS Cloud Plattform.
- Analyse und Abstimmung von neuen Datenquellen und Schnittstellen mit den liefernden System, basierend auf AWS ETL- bzw. Data Flow-Werkzeugen
- Beratung und Einbringen von KnowHow beim Einsatz automatisierter Testverfahren und der Definition von Testcases
- Aktive Mitarbeit in der Planung und Umsetzung von neuen Features, Architekturvorgaben, der Stabilisierung und Verbesserung bestehender Prozesse & Entwicklungen.
Die besonderen Anforderungen an Dich:
- Mehrjährige Erfahrung in der Implementierung großer Business Intelligence / Data Warehouse Lösungen, inklusive SQL-basierter ETL-Entwicklung, den Grundlagen von Datawarehouse-Strukturen (Historisierung, Key-Generierung, Star- & Snowflake, 3NF) (Senior Data Engineer: Mind. 5 Jahre (bzw. 2 Projekte) nachgewiesene Erfahrung sind im Lebenslauf nachvollziehbar zu finden)
- Erfahrung in der Entwicklung eines Datalakehouses auf dem AWS Stack (Athena, Redshift, Lambda, S3, Secrets Manager, IAM, Python, SQL, AWS Glue) (Senior Data Engineer: Mind. 5 Jahre nachgewiesene Erfahrung sind im Lebenslauf nachvollziehbar zu finden)
- Erfahrung in der Datenmigration und Migration von ETL-Strecken von einem DB-System und ETL-Werkzeug zu einem Cloud-basierten Ansatz (Senior Data Engineer: Mind. 5 Jahre (bzw. 2 Projekte) nachgewiesene Erfahrung sind im Lebenslauf nachvollziehbar zu finden)
- Mehrjährige Erfahrung in der Datenmodellierung von Datawarehouse-Modellen für 3NF und Star-/Snowflake. (Senior Data Engineer: Erfahrung aus mindestens zwei Projekten, nicht älter als 2 Jahre)
- Mehrjährige Erfahrung in der Strukturierung und Vorbereitung (Prototypisieren) sowie Anleitung der Umsetzung bis hin zum Testen/Qualitätssichern im Bereich Datawarehousing & Business Intelligence (Senior Data Engineer: Mind. 5 Jahre nachgewiesene Erfahrung sind im Lebenslauf nachvollziehbar zu finden)
Das solltest du noch mitbringen:
- Erfahrung im Bereich Query-Tuning & Optimierung von Athena und Redshift Abfragen im Zusammenspiel mit einem BI-Tool, vorzugsweise MS Power BI. (Im Lebenslauf nachvollziehbar. Wird im Interview geprüft.)
- Erfahrung in DevOps Vorgehensmodellen wie git CI/CD Pipelines (mindestens in zwei Projekten) (Im Lebenslauf nachvollziehbar. Wird im Interview geprüft.)
- Team- und Kommunikationsfähigkeit sowie proaktive Arbeitsweise, erläuterbar anhand mehr als einem Projekt (Im Lebenslauf nachvollziehbar. Wird im Interview geprüft.)
- AWS Cloud Erfahrung; Mindestens eine Zertifizierung wie Cloud Practitioner, Developer, DevOpsEngineer oder Solution Architect (Im Lebenslauf nachvollziehbar. Wird im Interview geprüft)
Remote/ Onsite: 80%/ 20%