Data Analytics Engineer (m/f/d)

Hamburg

Applications have closed

Reneo

Discover Reneo, Germany's leading platform for asset transformation and decarbonization in residential real estate. Unleashing ecological and economic potential through cutting-edge proprietary software.

View all jobs at Reneo

Tätigkeitsbereich

Als Data Analytics Engineer (m/w/d) bei der Reneo Group bist du verantwortlich für die Verbesserung und Skalierung unserer bestehenden Data Warehouse-Infrastruktur. In dieser Rolle arbeitest du eng mit den Geschäftspartnern zusammen, um wertvolle Datenanalysen bereitzustellen und unsere Reporting-Infrastruktur zu pflegen. Wir suchen einen Data Analytics Engineer mit mindestens 2-3 Jahren Erfahrung, der die Möglichkeit nutzt, an der Schnittstelle von Data Engineering und Analytics in einem schnell wachsenden Unternehmen zu arbeiten und so einen echten Beitrag zur nachhaltigen Immobilienentwicklung zu leisten.

Deine Aufgaben

  • Entwerfe, baue und pflege skalierbare Data-Warehouse-Lösungen auf GCP-Plattformen
  • Arbeite eng mit dem ML-Team zusammen, um unsere aktuelle Dateninfrastruktur zu verbessern und zu skalieren
  • Arbeite direkt mit den Geschäftsinteressengruppen, einschließlich der Gründer, zusammen, um geschäftliche Anforderungen in Datenlösungen zu übersetzen
  • Entwickle und pflege Business-Intelligence-Dashboards und -Berichte mit Looker
  • Setze Best Practices für das Datenmodelling um
  • Sichere die Datenqualität, Zuverlässigkeit und Konsistenz in allen Datenpipelines
  • Optimiere den Datenfluss und die Abfrageperformance sowohl für interne als auch externe Datenquellen
  • Arbeite mit Engineering-Teams zusammen, um verschiedene Datenquellen in das Data Warehouse zu integrieren
  • Unterstütze datenbasierte Entscheidungen im gesamten Unternehmen
  • Dokumentiere die Datenarchitektur, Datenmodelle und Analyseprozesse

Dein Profil

  • 2-3 Jahre Berufserfahrung in Data Engineering, Analytics oder einem verwandten Bereich
  • Fundierte Erfahrung mit Cloud-Plattformen, insbesondere GCP und/oder AWS
  • Kompetenz in der Gestaltung, Implementierung und Wartung von Data Warehouses
  • Praktische Erfahrung mit BI-Tools, insbesondere Looker
  • Erfahrung mit modernen Datenwerkzeugen wie BigQuery, DBT, Airflow und Airbyte
  • Solide SQL-Kenntnisse und Expertise im Datenmodellieren
  • Fähigkeit, mit verschiedenen Datenquellen zu arbeiten und diese effektiv zu integrieren
  • Kenntnisse in Python sind von Vorteil
  • Ausgezeichnete Kommunikationsfähigkeiten, um effektiv mit technischen und nicht-technischen Stakeholdern zu arbeiten
  • Lösungsorientierte Denkweise und die Fähigkeit, selbstständig zu arbeiten

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  6  1  0

Tags: Airflow AWS BigQuery Data Analytics Data warehouse dbt Engineering GCP Looker Machine Learning Pipelines Python SQL

Region: Europe
Country: Germany

More jobs like this