Wir fördern Dein persönliches Wachstum, gemeinsamen Erfolg und neue Innovationen.
Devoteam ist ein führendes Technologieberatungsunternehmen für digitale Transformation und Cloud-Innovation. Als globaler AWS Premier Consulting Partner unterstützen wir mit über 11.000 Experten Unternehmen bei ihrer digitalen Transformation.
Unsere Data \& Analytics Practice entwickelt moderne Datenarchitekturen und intelligente Geschäftslösungen. Im Data Engineering Team transformierst du komplexe Datenlandschaften und baust skalierbare Analytics-Plattformen mit AWS Cloud Services und Snowflake.
Als AWS/Snowflake Senior Data Engineer (m/w/d) wirst du zum technischen Experten und Mentor. Du realisierst komplexe Data Lake- und Warehouse-Lösungen und gestaltest die nächste Generation von Analytics-Plattformen. In enger Zusammenarbeit mit Kunden agierst du als strategischer Berater, teilst dein Wissen und entwickelst innovative, cloud-native Datenplattformen mit messbarem Geschäftserfolg. Wir suchen kreative Problemlöser, die strategisch über Datenarchitekturen nachdenken und bestehende Prozesse herausfordern.
#AI DRIVEN TECH CONSULTING
Deine Benefits
Moderne Büros in Toplage in Frankfurt und München
Hybrid Working mit der Möglichkeit, Deine Arbeitszeiten und Arbeitsorte individuell auf Deine Bedürfnisse anzupassen
Unsere Devoteam Academy bietet Dir ein großes Angebot an zertifizierten Trainings und Sprachkursen
Internationale Entwicklungsmöglichkeiten für Deinen Karriereboost bei Devoteam
Gaming-Lounge für Deine kreative Pause zwischen Meetings und Calls
Get-Together Partys und Teamevents für den regelmäßigen Austausch und Spaß mit Deinen Kollleg:innen
Mitarbeiter:innen-Prämien beim Werben von neuen Mitarbeiter:innen
Moderne IT-Ausstattung - Wähle aus einer Vielzahl von Möglichkeiten das für Dich passende Produkt
Corporate Benefits mit großer Auswahl an zahlreichen Angeboten für nahezu jeden Bereich
Jobrad und Firmenwagen Angebot mit attraktiven steuerlichen Vorteilen für Dich
Betriebliche Altersvorsorge, Direktversicherungen und vermögenswirksame Leistungen stehen Dir als Zusatzleistungen zur Verfügung
Integration Day inkl. Mentorenprogramme für Deinen perfekten Start bei Devoteam
KEY JOB RESPONSIBILITIES
Modern Data Platform Architecture: Konzeption und Implementierung skalierender Data Lake und Data Warehouse Architekturen mit AWS Services (Redshift, Glue, EMR, Kinesis) und Snowflake als zentrale Analytics Engine
Data Pipeline Engineering: Entwicklung hochperformanter, fault-toleranter ELT/ETL-Pipelines mit modernen Frameworks wie Apache Spark, dbt und AWS Step Functions für komplexe Datenverarbeitungsworkflows
Snowflake Platform Optimization: Design und Implementierung von Snowflake Data Models, Performance-Tuning, Multi-Cluster Warehouses und Advanced Features wie Data Sharing und Secure Data Exchange
Real-time Analytics Solutions: Implementierung von Streaming Analytics Plattformen mit Kinesis, Kafka und Snowflake Streams für Echtzeit-Datenverarbeitung und Live-Dashboarding
Data Integration \& Migration: Planung und Durchführung komplexer Datenmigrationsprojekte von Legacy-Systemen zu modernen Cloud Data Platforms mit minimaler Ausfallzeit
DevOps for Data: Aufbau von DataOps-Praktiken mit Infrastructure as Code (Terraform, CloudFormation), CI/CD-Pipelines für Datenverarbeitung und automatisiertem Testing von Data Pipelines
Performance Engineering: Optimierung von Datenverarbeitungsworkflows, Query-Performance Tuning und Cost Optimization für große Datenvolumen in Cloud-Umgebungen
Technical Consulting: Beratung von Kunden bei Data Strategy, Technology Selection und Best Practices für moderne Data Governance und Compliance-Anforderungen
A DAY IN THE LIFE
Dein Tag beginnt oft mit einem Review der nächtlichen Data Pipeline Runs und Performance Monitoring Dashboards, um sicherzustellen, dass alle kritischen Datenflüsse erfolgreich ausgeführt wurden. Anschließend führst du ein Stand-up mit deinem Data Engineering Team durch, um den Fortschritt aktueller Implementierungen zu besprechen und eventuelle Issues zu adressieren.
Der Vormittag wird häufig von Technical Deep-Dive Sessions mit Kunden geprägt, in denen du komplexe Datenarchitekturen designst - sei es die Modernisierung eines legacy Data Warehouses oder die Implementierung einer Real-time Analytics Plattform mit Snowflake. Dabei arbeitest du eng mit Data Scientists und Business Analysts zusammen, um sicherzustellen, dass die technische Lösung auch die fachlichen Anforderungen optimal erfüllt.
Nachmittags konzentrierst du dich auf hands-on Development Work: Du entwickelst neue dbt Models, optimierst Spark Jobs für bessere Performance oder implementierst neue Snowflake Features für erweiterte Analytics Use Cases. Ein wichtiger Teil deiner Arbeit ist auch das Code Review und Mentoring von Junior Data Engineers - du teilst deine Expertise in technischen Diskussionen und leitest Workshops zu modernen Data Engineering Patterns.
Den Tag schließt du häufig mit der Arbeit an Innovation Projekten ab, wo du neue AWS Services oder Snowflake Features evaluierst, Proof-of-Concepts für ML-Pipeline Integration entwickelst oder an der Dokumentation von Best Practices und Learnings für das Team arbeitest.
BASIC QUALIFICATIONS
4+ Jahre Erfahrung in Data Engineering, ETL/ELT-Entwicklung und Datenplattform-Implementierung mit AWS Services
Nachgewiesene Snowflake-Expertise in Data Modeling, Performance Optimization, Administration und Advanced Features
Solide AWS Data Services Kenntnisse (Redshift, Glue, EMR, Kinesis, Lambda, S3) und deren Integration in moderne Datenarchitekturen
Programmier-Expertise in Python/Scala/SQL mit Erfahrung in Spark, dbt oder vergleichbaren Data Processing Frameworks
Infrastructure as Code Kenntnisse (Terraform, CloudFormation) für automatisierte Deployment von Dateninfrastrukturen
Ausgezeichnete Kommunikationsfähigkeiten für die Zusammenarbeit mit technischen Teams und Business Stakeholdern
Fließende Deutsch- und Englischkenntnisse für internationale Kundenprojekte und globale Zusammenarbeit
PREFERRED QUALIFICATIONS
AWS und Snowflake Zertifizierungen (Data Analytics, Data Engineer, SnowPro Core/Advanced)
Expertise in Real-time Data Processing mit Kafka, Kinesis oder anderen Streaming Technologien
Machine Learning Pipeline Erfahrung mit SageMaker, MLflow oder Integration von ML-Models in Datenverarbeitungsworkflows
Data Governance und Compliance Kenntnisse für regulierte Branchen (GDPR, SOX, HIPAA)
Container- und Orchestration-Erfahrung (Docker, Kubernetes, ECS) für containerisierte Data Processing Workloads
Industry-spezifische Datenmodellierungs-Erfahrung in Bereichen wie Financial Services, Retail oder Manufacturing
Thought Leadership durch Konferenz-Präsentationen über Data Engineering Topics oder Open-Source Beiträge
Internationale Projekterfahrung mit Multi-Region Data Architectures und globalen Compliance-Anforderungen
Melde Dich bei unserem Recruiting Team
Durch unsere offene Unternehmenskultur legen wir großen Wert darauf, Menschen die Chance zu geben, sich zu bewerben, auch wenn nicht alle spezifischen Fähigkeiten der Stellenbeschreibung erfüllt werden. Wir sind überzeugt, dass jede:r Einzelne durch unsere Unterstützung und ein motiviertes Team sein volles Potenzial entfalten kann.
Wir freuen uns auf Deine Bewerbung!