Wir suchen einen Data Engineer mit starkem technischen Fokus auf Databricks, der Kunden beim Design, Aufbau und der Optimierung moderner Lakehouse-Plattformen unterstützt.
Kernaufgaben
Konzeption und Implementierung von Databricks Lakehouse-Architekturen für Enterprise-Kunden
Aufbau robuster Datenpipelines mit PySpark / Spark SQL und Delta Lake
Entwicklung und Betrieb von ETL/ELT Workflows mit Databricks Workflows, Azure Data Factory oder vergleichbaren Tools
Zusammenarbeit mit Stakeholdern zur Übersetzung fachlicher Anforderungen in technische Lösungen
Beitrag zu Dokumentation, Enablement und Wissensaustausch im Team
Anforderungen
Fundierte Erfahrung mit Databricks in produktiven Umgebungen
Erfahrung mit Cloud-Datenplattformen, idealerweise Azure (ADLS Gen2, ADF, Key Vault, Entra ID)
Gutes Verständnis moderner Datenarchitektur-Patterns (Medallion, Lakehouse)
Sicheres Auftreten im Consulting-Umfeld: Kommunikation, Ownership, kundennahe Delivery
Fließende Deutschkenntnisse
Wir bieten
Mitarbeit an anspruchsvollen Data-Plattform-Projekten mit modernen Technologien
Hybrides Arbeitsmodell und Flexibilität je nach Kundenanforderung
Klare Entwicklungsperspektive (Lead / Principal Consultant)
Attraktives Gehaltspaket plus Benefits