👨🏻‍💻 postech.work

Data Engineer (Python, Spark, Cloud) - 100% Remoto

Axpe Consulting • 🌐 In Person

In Person Posted 3 days, 5 hours ago

Job Description

Data Engineer (Python, Spark, Cloud)

Axpe Consulting – España \| 100% Remoto \| Proyecto estable

📍

Ubicación:

Remoto

💼

Proyecto de largo plazo

en entornos enterprise, con impacto real en plataformas de datos a gran escala

🌍

Inglés alto (B2 o superior)

– colaboración con equipos internacionales

En Axpe Consulting buscamos un/a

Senior Data Engineer

para incorporarse a proyectos estratégicos de datos, trabajando con

grandes volúmenes de información

, arquitecturas modernas y plataformas cloud líderes del mercado.

El rol tiene un fuerte componente

técnico y de liderazgo

, participando tanto en la construcción como en la definición de soluciones de datos escalables, seguras y orientadas a analítica avanzada y Machine Learning.

💼 Responsabilidades

Diseño, desarrollo y mantenimiento de

pipelines de datos a gran escala

en entornos cloud y on-premise.

Procesamiento distribuido de datos utilizando

PySpark, SparkSQL y Python

.

Diseño y optimización de

consultas SQL y NoSQL

para entornos analíticos de alto rendimiento.

Modelado de datos y definición de arquitecturas analíticas (Data Lake, Lakehouse, Data Warehouse).

Liderazgo técnico en proyectos de datos y

coordinación con equipos multidisciplinarios

(Data, Cloud, Arquitectura, Negocio).

Definición de estrategias de datos junto a arquitectos y stakeholders técnicos.

Implementación de buenas prácticas de

calidad del dato, seguridad y gobernanza

.

Participación activa en despliegues, automatización y mejora continua de las plataformas.

🛠️ Stack tecnológico

Procesamiento y plataformas de datos

Python, PySpark, SparkSQL

Databricks

Snowflake

Cloudera Data Services

Cloud \& Data Services

AWS

(Glue, Redshift, S3, EMR)

Azure

(Fabric, Data Factory, Synapse)

GCP

(BigQuery, Dataproc, Cloud Storage)

DevOps \& buenas prácticas

Azure DevOps, Jenkins, GitLab CI

Automatización de despliegues

Seguridad cloud y control de accesos

Versionado y testing de pipelines de datos

✅ Requisitos obligatorios

+5 años de experiencia

como Data Engineer en entornos enterprise.

Experiencia sólida trabajando con

grandes volúmenes de datos

.

Dominio avanzado de

Python, PySpark y SparkSQL

.

Amplia experiencia en

SQL

y bases de datos analíticas.

Conocimiento profundo de

modelado de datos y arquitecturas analíticas

.

Experiencia trabajando en

entornos cloud (AWS, Azure o GCP)

.

Capacidad de liderazgo técnico y toma de decisiones.

Inglés alto (B2 o superior)

para colaboración internacional.

🌱 Se valorará especialmente

Experiencia en

arquitecturas Lakehouse

.

Conocimientos de

Data Governance y Data Quality

.

Certificaciones en

Snowflake, Databricks, AWS, Azure o GCP

.

Experiencia en proyectos internacionales o multi-país.

Background en sectores como banca, retail o industria.

🎓 Formación

Titulación en

Ingeniería Informática, Telecomunicaciones

o áreas afines.

🌍 ¿Qué ofrecemos?

Proyecto

estable y de largo recorrido

.

Trabajo

100% remoto desde España

.

Entorno técnico avanzado, con tecnologías líderes de mercado.

Rol con peso real en decisiones técnicas y de arquitectura.

Colaboración con equipos y clientes internacionales.

Crecimiento profesional, formación continua y certificaciones.

#DataEngineer #SeniorDataEngineer #BigData #PySpark #Databricks #Snowflake #CloudData #AWS #Azure #GCP

Get job updates in your inbox

Subscribe to our newsletter and stay updated with the best job opportunities.