MADRID, España
SE EL PRIMERO EN APLICAR
DESCRIPCIÓN DE PUESTO
El puesto se integra en el Área de IT de Atresmedia. La persona seleccionada trabajará junto al equipo de Data \& Analytics en el desarrollo y mantenimiento de los procesos de ingesta, transformación y orquestación de datos que alimentan nuestro Datalake y Data Warehouse corportativo (Snowflake). Formarás parte de un equipo altamente colaborativo, y tu misión principal será asegurar la calidad, fiabilidad y eficiencia de los pipelines de datos que soportan el reporting, la analítica y los productos de datos de la compañía. Se ofrece un entorno estable en compañía líder del sector, con modelo híbrido y posibilidades de desarrollo profesional.
Qué ofrecemos
Modelo mixto presencial/teletrabajo y horario flexible, según política interna.
Incorporación a compañía líder en medios de comunicación.
Estabilidad, proyectos con impacto y plan de desarrollo/formación.
Paquete retributivo competitivo acorde a la experiencia.
FUNCIONES REALIZADAS
Diseñar, desarrollar y mantener procesos ETL/ELT sobre AWS, utilizando Scala y Apache Spark.
Implementar y monitorizar flujos de orquestación en Apache Airflow.
Participar en la migración y mejora de procesos actualmente orquestados con AWS Step Functions.
Colaborar con el equipo de Data Architecture en la evolución del Datalake y del modelo de datos en Snowflake.
Asegurar la trazabilidad y calidad de los datos a lo largo de los distintos entornos (Desarrollo, Preproducción, Producción).
Mantener buenas prácticas de versionado de código y despliegue continúo utilizando Git y Jenkins.
Contribuir a la optimización de costes y rendimiento en las cargas y transformaciones.
REQUISITOS
Imprescindible
Grado o master en Ingeniería matemática, matemáticas, estadística o similar.
Experiencia mínima de 2 a 4 años en ingeniería de datos o desarrollo de pipelines en entornos cloud.
Experiencia práctica en AWS (Lambda, S3, Step Functions, IAM, CloudWatch).
Conocimientos sólidos en Apache Spark y desarrollo en Scala.
Experiencia en la creación y mantenimiento de pipelines de datos.
Familiaridad con Airflow como herramienta de orquestación.
Conocimientos de SQL avanzado y trabajo con Snowflake u otros Data Warehouses cloud.
Experiencia trabajando con Git y Jenkins en entornos colaborativos.
Valorable
Conocimientos de Python para scripting o automatización.
Experiencia con infraestructura como código (Terraform, CloudFormation).
Familiaridad con PowerBI o herramientas de reporting empresarial.
Nociones de data quality frameworks
INFORMACIÓN DE PUESTO
Identificación de puesto
470
Fecha de anuncio
20/10/2025 11:34
Fecha límite de solicitud
24/11/2025 11:34
Nivel de estudios
Enseñanzas universitarias de primer ciclo y equivalentes (diplomados)
Jornada
Tiempo completo
Ubicaciones
AV ISLA GRACIOSA, 13, SAN SEBASTIÁN DE LOS REYES, MADRID, 28703, ES