👨🏻‍💻 postech.work

Data Backend Engineer

Michael Page • 🌐 In Person

In Person Posted 23 hours, 36 minutes ago

Job Description

Développement ETL et SQL

Gestion du Data Warehouse

About Our Client

Notre client est une société basée à Lausanne

Job Description

Sur la partie Data Warehouse :Développer et maintenir les pipelines d'alimentation (ETL/ELT) en assurant leur performance, fiabilité et documentation.

Optimiser les traitements SQL et les performances d'accès aux données.

Administrer, monitorer et faire évoluer les environnements techniques du Data Warehouse (Jobs, Scripts, Automatisations, Tableau Software).

Contribuer à la mise en place de pratiques DataOps (Versioning, déploiement automatisé). Sur la partie Data Hub :Concevoir et développer les flux d'intégration et d'interopérabilité entre applications via le Data Hub.

Maintenir et faire évoluer les référentiels de données (MDM).

Développer et orchestrer les interfaces d'échange de données (API, flux SQL, Services d'intégration).

Garantir la qualité, la sécurité et la traçabilité des données échangées.

Participer à l'automatisation et à la supervision des traitements d'intégration (Monitoring \& Alerting). De manière transversale :Assurer la stabilité, la performance et la maintenabilité des plateformes de données.

Documenter les sources, processus d'alimentation et flux inter-systèmes.

Contribuer à l'amélioration continue des pratiques techniques et à la modernisation des plateformes.

The Successful Applicant

Diplôme d'ingénieur en informatique (HES / EPF) ou expérience jugée équivalente.

Minimum 5 ans d'expérience dans le domaine des données, idéalement sur des environnements Data Warehouse ou Data Hub.

Expertise en SQL (optimisation, tuning, diagnostic, indexes, plans d'exécution).

Expertise en Python pour le développement de pipelines de données (ETL/ELT, API, Scheduling, gestion de librairies).

Bonnes connaissances DataOps (Versioning, Intégration et déploiement continu, Git, Orchestration).

Connaissance ou intérêt pour les frameworks de pipelines modernes (dbt, dlt) et les outils d'orchestration (ex. Airflow, Jenkins, Prefect).

Bonne connaissance des bases de données relationnelles (MSSQL, PostgreSQL, Oracle) ; Bases NoSQL un plus.

Connaissances du maintien des environnements Windows et Linux (On-premise, VM).

Connaissances en data visualisation (Tableau Software un plus).

Esprit analytique, structuré et pragmatique.

Très bonnes aptitudes relationnelles, sens de la collaboration et de l'initiative. UN PLUSFamiliarité avec Docker / Kubernetes pour le déploiement de traitements de données

Connaissances en Data virtualisation (Denodo un plus)

Expérience dans la mise en œuvre d'architectures Data Lake / Lakehouse

Expérience dans un projet cloud

Contribution à un projet ML ou LLM

What's On Offer

Flexibilité en bon environnement de travail

Contact: Thibaud De Balby

Quote job ref: JN-122025-6904201

Get job updates in your inbox

Subscribe to our newsletter and stay updated with the best job opportunities.