Descrição:
Hard skill (obrigatório)
Ferramentas de engenharia: Snowflake, Cloud Storage, BigQuery, Dataproc, Dataform, Dataflow, Composer, Pub/Sub, Cloud Functions, Cloud Run e Gemini;
Ferramentas Ops: Git e Azure devops
Linguagem: SQL, Python e PySpark (nível avançado)
Modelagem de dados: Star Schema
Boas práticas de engenharia: forte conhecimento em particionamento e clusterização, otimização de consultas SQL.
Desejáveis:
Streaming: Kafka, Dataflow e Pub/Sub;
Ferramenta Dataviz: Looker;
Experiência na aplicação de IA generativa (como Gemini) em pipelines de dados para otimização e automação de processos;
Modelagem de dados: Data Vault;
Certificações relevantes em GCP (Professional Data Engineer);
Participação em treinamentos, eventos, hackathons.
Local: Pinheiros/SP (modelo híbrido: 2 vezes presencial)
Horário: 8h às 18h de segunda a quinta, 8h às 17h na sexta
Estamos em busca de um Engenheiro de Dados Pleno com experiência em Google Cloud Platform (GCP) e Snowflake para integrar nosso time de dados. Você será responsável por projetar, implementar e gerenciar pipelines de dados robustos, garantindo que as informações estejam acessíveis, seguras, governadas e otimizadas para análises de negócios.
Principais responsabilidades
Projetar e desenvolver pipelines de dados escaláveis e em tempo real;
Implementar processos de ETL/ELT para ingestão e transformação de dados de diferentes fontes;
Conhecimento em modelagem de dados para suportar análises e BI, como Data Vault e Star Schema;
Monitorar e otimizar o desempenho de pipelines de dados;
Colaborar com equipes de negócio para atender às demandas de dados.
Automatizar processos e implementar práticas de DevOps para dados (CI/CD, versionamento, monitoramento).
Manter-se atualizado com as tendências e novas tecnologias no universo de engenharia de dados e cloud.
2510040202301788900