Responsabilidades:
- Projetar, desenvolver e manter pipelines de dados escaláveis e infraestrutura.
- Colaborar com equipes multifuncionais para garantir a integridade e usabilidade dos dados.
- Documentar fluxos de trabalho, processos e arquiteturas de dados.
- Integrar a qualidade dos dados nos pipelines de dados.
- Desenvolver pipeline de CI/CD para processos ETL.
- Implementar modelagem de dados dimensionais.
- Implementar soluções de Data Lake/Data Warehouse.
- Implementar práticas de Governança de Dados.
- Fornecer suporte técnico e resolução de problemas relacionados a dados.
- Aplicar princípios de FinOps para otimizar custos de dados.
- Implementar soluções Databricks (workflows, jobs, delta tables, delta sharing, queries etc)
- Experiência sólida em Teradata será um diferencial.
Requisitos para este desafio:
- Bacharel em Ciência da Computação, Tecnologia da Informação ou área relacionada.
- Experiência sólida em desenvolvimento de dados ou função relacionada.
- Certificação Databricks Azure / Conhecimentos sólidos.
- Conhecimento em otimização de código na cloud.
- Conhecimento de SQL, Python e Spark/PySpark.
- Conhecimento de pipelines de CI/CD para processos ETL.
- Conhecimento em fluxo de ETL.
- Modelagem de dados.
#LI-APS1
SÊNIOR