Descrição:
QUEM NOS INSPIRA?
Alguém que acredite em nossos valores;
Com iniciativa;
Perfil analítico;
Que proponha ideias e soluções.
O QUE A SUZANO ESPERA DE VOCÊ?
Graduação em Engenharia, Ciência/Engenharia da Computação, Sistemas de Informação ou áreas correlatas;
Pós-graduação/MBA em Engenharia de Dados, Analytics, Arquitetura de Soluções ou Cloud (desejável);
Experiência em Engenharia de Dados com entrega em produção;
Proficiência em SQL (janelas, CTEs, particionamento), Alteryx, Python para ETL/ELT;
Experiência com GCP: BigQuery, Cloud Storage, Pub/Sub, Dataflow/Beam e Cloud Composer/Airflow;
Modelagem dimensional e/ou Data Vault, performance tuning em BigQuery e otimização de custos;
Imprescindível Inglês avançado.
SERÁ CONSIDERADO COMO UM DIFERENCIAL:
Certificações: GCP Professional Data Engineer/Cloud Architect, dbt e Terraform, Alteryx Core/Advanced;
. dbt Core/Cloud para transformação e documentação; Great Expectations para qualidade; Data Catalog/Dataplex para lineage/governança;
Datastream/CDC, Kafka ou Dataproc/Spark para integrações em tempo real;
Power BI (modelagem e publicação) para consumo eficiente; fundamentos de UI/UX para data products e semantic layer.
DADOS:
GS 15
Local: Suzano/SP (atuação hibrida, sendo obrigatório 2x por semana)
Inscrições até: 12/10/2025
O QUE VOCÊ VAI FAZER?
Integrações corporativas: Ingerir dados de SAP HANA (OData/REST/JDBC) e ServiceNow (REST/webhooks, OAuth2/JWT), com retries, backoff, idempotência, DLQs e scheduling confiável;
Modelagem e camadas de dados: Otimizar BigQuery (particionamento, clustering, materialized views) e prover camada semântica para consumo por Power BI;
Qualidade e contratos de dados: Implementar testes de qualidade (ex.: Great Expectations), data contracts, regras de validação, reconciliações e lineage (ex.: Data Catalog/Dataplex), com SLIs/SLOs/SLAs;
Segurança \& compliance: Aplicar LGPD, data masking, tokenização e row-level security; gerenciar segredos (Secret Manager), papéis/identidades (IAM), VPC-SC e trilhas de auditoria;
Observabilidade \& confiabilidade: Instrumentar métricas, logs e tracing de dados; criar alertas; conduzir RCA e post-mortems; manter runbooks e playbooks;
FinOps de dados: Otimizar custo/desempenho (particionamento, slot management, storage lifecycle, caching), chargeback/showback e rightsizing;
DataOps \& governança: Padronizar SDLC de dados, code review, testes automatizados, IaC (Terraform) e políticas de release; documentar e disseminar boas práticas;
Alteryx no ciclo de dados: Construir fluxos Alteryx Designer/Server para ingestão, transformação, data prep e automações de integração; publicar macros reutilizáveis e garantir padrões de qualidade;
Suporte a analytics: Publicar data products e semantic layers para Power BI; orientar squads no uso eficiente de consultas SQL e datasets.
2510040202301737647