DataOps Engineer (m/w/d)
Mülheim an der Ruhr, NW, DE, 45481
ALDI SÜD
ALDI SÜD online - Entdecke unser großes Sortiment ✔ Hohe Qualität ✔ Aktionen & Angebote ✔ Rezepte ✔ Produktinformationen ✔ RatgeberInfotext
Bei ALDI DX entwickeln wir innovative digitale Produkte und Dienstleistungen für unsere Mitarbeiter:innen und Kund:innen in elf ALDI SÜD Ländern und über 7.300 ALDI SÜD Filialen weltweit. Wir schaffen digitalen Mehrwert, um hervorragende Qualität zum niedrigsten Preis zu bieten.
Geleitet werden wir dabei von den drei Kernwerten der Unternehmensgruppe ALDI SÜD – „Einfachheit“, „Verlässlichkeit“ und „Verantwortung“. Daneben stehen ebenso unser Team und unsere Performance im Zentrum unseres Handelns.
Deine Aufgaben
Wofür du dein Bestes gibst.
- Sicherstellen der Beladung des Datalakes : Überwachung, Neustart, Analyse, Korrektur und Verbesserung bestehender Datenpipelines zwischen Quellsystemen und dem Data Lake in beide Richtungen
-
Incident- und Problem-Management für das Team
-
Sicherstellen der Beladung des Datalakes : Überwachung, Neustart, Analyse, Korrektur und Verbesserung bestehender Datenpipelines zwischen Quellsystemen und dem Data Lake in beide Richtungen
-
Kommunikation der Auswirkungen von Serviceverschlechterungen mit der Nutzer-Community des Data Lakes und dem internen Service-Management-Team
-
Incident- und Problem-Management für das Team
-
Überwachung, Kontrolle und Optimierung der Clusterkonfiguration (Einrichtung, Version, Anmeldedaten) in Zusammenarbeit mit dem Cloud-Team
-
Entwicklung und Pflege einer Datenarchitektur und von Pipelines, die definierten ETL- und Data-Lake-Prinzipien entsprechen
-
Lösung technischer Datenproblemen, die dem Geschäftsbereich helfen, seine Ziele zu erreichen
-
Vorschläge und Beiträge zu Schulungs- und Verbesserungsplänen hinsichtlich des IT-Betriebs, Standards und Prozessen
Dein Profil
Was du mitbringen solltest.
-
Sicherstellen der Beladung des Datalakes : Überwachung, Neustart, Analyse, Korrektur und Verbesserung bestehender Datenpipelines zwischen Quellsystemen und dem Data Lake in beide Richtungen
-
Kommunikation der Auswirkungen von Serviceverschlechterungen mit der Nutzer-Community des Data Lakes und dem internen Service-Management-Team
-
Incident- und Problem-Management für das Team
-
Überwachung, Kontrolle und Optimierung der Clusterkonfiguration (Einrichtung, Version, Anmeldedaten) in Zusammenarbeit mit dem Cloud-Team
-
Entwicklung und Pflege einer Datenarchitektur und von Pipelines, die definierten ETL- und Data-Lake-Prinzipien entsprechen
-
Lösung technischer Datenproblemen, die dem Geschäftsbereich helfen, seine Ziele zu erreichen
-
Vorschläge und Beiträge zu Schulungs- und Verbesserungsplänen hinsichtlich des IT-Betriebs, Standards und Prozessen
Deine Benefits
Wie wir deinen Einsatz wertschätzen.
- Mobiles Arbeiten innerhalb Deutschlands und flexible Arbeitszeiten
- State-of-the-art Technologien
- Attraktive Vergütung sowie Urlaubs- und Weihnachtsgeld
- Zukunftsorientiertes Training & Development
- Modulares Onboarding und Buddy
- Gesundheitsangebote
Dein Tech Stack
Womit du unter anderem arbeitest.
- Azure Databricks
- Azure Data Factory
- Python
- PySpark
- ServiceNow
- M365
- Viele weitere jobabhängig
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: Architecture Azure Databricks DataOps ETL Pipelines PySpark Python
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.