Wir suchen ab sofort für unseren Standort in Hanau einen
Data Engineer (m/w/d)
unbefristet in Vollzeit (40 Stunden pro Woche).
Die Bruker
EAS
GmbH ist der weltweit führende Hersteller von Supraleitern. Unsere Materialien werden in supraleitenden Magneten für eine Vielzahl von Anwendungen in Medizintechnik, Analytik, Fusionsforschung oder Hochenergiephysik eingesetzt. Das Haupteinsatzgebiet unserer Produkte im industriellen Bereich liegt im Spulensystem von Magnetresonanztomographen (MRT). Bruker EAS gehört innerhalb des weltweit agierenden Bruker-Konzerns zur Division BEST (Bruker Energy and Supercon Technologies).
Wir bieten Ihnen
Tarifentgelt und -leistungen der Metall- und Elektroindustrie
Weiterbildungsangebote, flexible Arbeitszeiten und Möglichkeit zum mobilen Arbeiten
Eine von Bruker EAS GmbH bezahlte freiwillige Unfallversicherung für Freizeit und Arbeitszeit
Förderprogramm für den Erwerb von Fahrrädern (bis zu 1.200 € brutto Zuschuss)
Kostenlose Parkplätze auf dem Firmengelände, sehr gute Anbindung an öffentliche Verkehrsmittel
Mitarbeiterempfehlungsprogramm, große Auswahl an Mitarbeiterrabatten
Gemeinsame Aktivitäten und Unternehmensfeiern
Aufgaben/Verantwortlichkeiten
Entwicklung, Wartung und Automatisierung von ETL/ELT-Pipelines mit Apache Airflow
Automatisierung und Orchestrierung von Datenprozessen
Entwicklung der Schnittstellen zu verschiedenen Systemen (SharePoint, PostgreSQL), insbesondere mit Python
Konzeption, Pflege und Optimierung relationaler Datenbanken mit PostgreSQL
Einsatz von Docker zur Containerisierung von Datenprozessen und Anwendungen (perspektivisch Umstellung auf Kubernetes)
Datenbankadministration (z.B. Backups, Indexpflege, Monitoring)
Entwicklung von Stored Procedures und AdHoc Abfragen mit PL/pgSQL
Sicherstellung von Datenqualität und Datenkonsistenz
Monitoring, Dokumentation und Fehlerbehandlung der Datenpipelines
Unterstützung bei der Erstellung von Dashboards und Berichten in Qlik Sense und zukünftig in SAP Analytics Cloud (SAC)
Qualifikationen
Abgeschlossenes Studium in Informatik, Computerwissenschaft o.ä.
Fundierte Erfahrung mit SQL (vorzugsweise PostgreSQL inklusive PL/pgSQL für komplexe Datenbanklogik) sowie Datenbankadministration
Sehr gute Kenntnisse mit Orchestrierungs- und ETL-Tools wie Apache Airflow
Sehr gute Kenntnisse in Python (SQLAlchemy und Django sind von Vorteil)
Sicherer Umgang mit Docker
Fundierte Erfahrung von ETL/ELT-Konzepten und Datenmodellierung
Erfahrung mit PowerShell
Erfahrung mit Versionskontrolle (z.B. Git) und CI/CD-Prozessen von Vorteil
Grundkenntnisse im Umgang mit Linux
Grundkenntnisse in Kubernetes von Vorteil
Grundkenntnisse mit BI Tools wie Qlik Sense, SAC oder ähnlichen Programmen
Grundkenntnisse in Monitoring Tools (z.B. Grafana)
Analytisches Denken, strukturierte Arbeitsweise und Teamgeist