? Votre missionVous serez responsable de la conception et de l?architecture de bout en bout des solutions Data et analytiques au sein d?un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d?entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture \& Design
Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI \& Analytics
Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).
Favoriser l?autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.
Ops \& FinOps
Définir et suivre les SLOs (fraîcheur, latence, coût).
Mettre en place l?observabilité, les runbooks et les stratégies de backfill.
Optimiser le stockage et les requêtes pour maîtriser les coûts.
Gouvernance \& Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
?? Compétences techniques indispensables7 à 12 ans d?expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
? Livrables clésArchitecture one-pager et data contracts.
ADRs et HLD (High Level Design).
Modèle sémantique et arbre de KPI.
Runbooks / SLOs et modèle de coût.
? Gestion des parties prenantesTravailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprès du management.
? Profil recherchéMinimum 7 ans d?expérience en développement logiciel, dont 3 ans en leadership technique.
Expérience confirmée dans la conception et la mise en ?uvre de plateformes data ou analytiques à grande échelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou d?infrastructures AI/ML est un atout majeur
Profil candidat:
? Votre missionVous serez responsable de la conception et de l?architecture de bout en bout des solutions Data et analytiques au sein d?un ou plusieurs value streams.
Votre rôle est de traduire les besoins métier en solutions de données sécurisées, scalables et optimisées, basées sur notre plateforme d?entreprise (DWH, Iceberg/Trino Lakehouse, streaming, ML, GCP / on-premise).
Architecture \& Design
Concevoir des architectures de données complètes : ingestion batch et streaming, entrepôt de données (Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL, APIs et couche sémantique.
Intégrer des flux ML et des features stores lorsque nécessaire.
Modélisation
Traduire les concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, Z-order, clustering, indexation).
BI \& Analytics
Gérer la couche sémantique et les métriques, gouverner les KPIs, optimiser la performance des tableaux de bord et requêtes (caching, agrégats).
Favoriser l?autonomie des utilisateurs via dbt, une couche de métriques et un catalogue de données.
Ops \& FinOps
Définir et suivre les SLOs (fraîcheur, latence, coût).
Mettre en place l?observabilité, les runbooks et les stratégies de backfill.
Optimiser le stockage et les requêtes pour maîtriser les coûts.
Gouvernance \& Data Mesh
Gérer la documentation, la découvrabilité et les métadonnées produits.
Publier des blueprints et Architecture Decision Records (ADR) pour normaliser les pratiques.
?? Compétences techniques indispensables7 à 12 ans d?expérience en data engineering / data architecture avec une maîtrise des DWH (Kimball/Inmon) et du BI, ainsi que des architectures Lakehouse (Iceberg / Delta / Hudi).
Solide expérience avec Trino / Presto, Spark / Flink, Kafka / PubSub.
Expertise en modélisation sémantique, data contracts, performance engineering, dbt et metrics layers.
Maîtrise des environnements GCP et hybrides on-prem, IaC, et CI/CD pour la donnée.
? Livrables clésArchitecture one-pager et data contracts.
ADRs et HLD (High Level Design).
Modèle sémantique et arbre de KPI.
Runbooks / SLOs et modèle de coût.
? Gestion des parties prenantesTravailler en étroite collaboration avec les équipes métier, les Product Owners et les Delivery Leads pour identifier les besoins et définir les priorités.
Présenter les avancements, jalons et défis techniques auprès du management.
? Profil recherchéMinimum 7 ans d?expérience en développement logiciel, dont 3 ans en leadership technique.
Expérience confirmée dans la conception et la mise en ?uvre de plateformes data ou analytiques à grande échelle.
Bonne compréhension des architectures cloud et API-driven.
Connaissances souhaitées : frameworks front-end (React, Angular, Vue.js), back-end (Node.js, Java Spring), intégration (ESB, API Gateway, microservices).
Maîtrise des pratiques DevOps (CI/CD, tests automatisés, conteneurisation, orchestration).
La connaissance de Snowflake, BigQuery ou d?infrastructures AI/ML est un atout majeur