Desarrollar y mantener procesos de ingesta, transformación y modelado de datos.
Implementar modelos de datos en capas bronze, silver y gold dentro del ecosistema de datos.
Crear y optimizar consultas SQL, así como colaborar en el modelado lógico y físico de bases de datos.
Participar en la construcción y mantenimiento de pipelines de datos y flujos de orquestación.
Colaborar en la implementación y mantenimiento de soluciones en arquitecturas Datalake, Data Warehouse y Lakehouse.
Trabajar con contenedores mediante Docker, incluyendo instalación local y ejecución de imágenes desde repositorios públicos.
Apoyar en tareas dentro de entornos Cloud Native, principalmente AWS.
Contribuir al versionamiento de código usando GitHub y a flujos de trabajo de CI/CD.
Colaborar en proyectos gestionados en Azure DevOps, incluyendo Azure Boards.
Aplicar metodologías Scrum, Kanban o cascada según el proyecto.
Requisitos:
Experiencia o conocimientos en Python o Scala.
Manejo de bases de datos SQL: consultas, modelado lógico y físico.
Conocimientos de modelado de datos en capas bronze–silver–gold.
Nociones sobre arquitecturas Datalake, Data Warehouse y Lakehouse.
Experiencia básica en flujos de orquestación.
Conocimiento de entornos Cloud Native.
Uso de Docker para levantar contenedores locales.
Conocimientos básicos de AWS.
Familiaridad con prácticas DevOps y CI/CD.
Conocimiento de GitHub para versionamiento de código.
Conocimiento de Azure DevOps (Azure Boards).