👨🏻‍💻 postech.work

Engenheiro(a) de Dados Sênior

Dadoteca • 🌐 Remote

Remote Posted 2 days, 23 hours ago

Job Description

Resumo da Posição

Buscamos um(a) Engenheiro(a) de Dados Sênior, com certificação obrigatória Databricks Certified Data Engineer Professional, para atuar no desenho e na implementação de soluções robustas de dados em Azure e Databricks. Este(a) profissional será responsável por arquitetar, desenvolver e otimizar pipelines escaláveis, garantindo governança, qualidade, segurança e disponibilidade das informações para análises avançadas e decisões estratégicas em toda a organização.

Principais Atividades

Projetar, desenvolver e manter pipelines de dados de alta performance em Azure e Databricks.

Implementar e administrar processos ETL/ELT utilizando Azure Data Factory, Databricks e Synapse Analytics.

Otimizar modelos e fluxos de dados para suportar análises complexas e relatórios corporativos.

Monitorar e atuar na resolução de problemas de performance, assegurando alta disponibilidade e eficiência operacional.

Integrar e transformar dados de múltiplas fontes, garantindo qualidade, rastreabilidade e governança via Unity Catalog.

Colaborar com times de BI, Analytics e Desenvolvimento, traduzindo demandas de negócio em soluções técnicas.

Documentar pipelines, arquiteturas e boas práticas, propondo melhorias contínuas e inovações.

Requisitos

Formação em Engenharia de Dados, Ciência da Computação, Sistemas de Informação, Matemática ou áreas correlatas.

Certificação obrigatória: Databricks Certified Data Engineer Professional.

Experiência sólida com engenharia de dados, desenvolvimento e manutenção de pipelines ETL/ELT.

Domínio do ecossistema Azure: Data Factory, Databricks, Synapse Analytics, Data Lake, Event Hub/Service Bus e Microsoft Fabric.

Conhecimento avançado em Spark (PySpark ou Scala) e SQL.

Experiência com bancos relacionais e não relacionais (SQL Server, PostgreSQL, CosmosDB).

Proficiência em Python para integração, automação e manipulação de dados.

Vivência com versionamento (Git) e práticas de CI/CD.

Experiência com Unity Catalog e Delta Lake.

Competências

Forte capacidade analítica e domínio técnico para lidar com grandes volumes de dados.

Experiência em criação e manutenção de catálogos corporativos (Unity Catalog).

Proatividade para resolver problemas complexos com soluções escaláveis e sustentáveis.

Boa comunicação e colaboração com times multidisciplinares.

Organização, atenção aos detalhes e foco em resultados.

Diferenciais

Certificações adicionais Microsoft (ex.: Azure Data Engineer Associate).

Experiência em arquiteturas modernas de dados: Lakehouse, Data Mesh, Delta Sharing.

Conhecimento em Power BI para validação de modelos e KPIs.

Vivência em projetos corporativos de grande porte em engenharia de dados.

Get job updates in your inbox

Subscribe to our newsletter and stay updated with the best job opportunities.