Engenheiro de Dados (Python, PySpark, SQL, Cloud)

Remote: 
Full Remote
Contract: 
Work from: 

Offer summary

Qualifications:

Sólida experiência com Python e PySpark para manipulação de dados., Domínio de SQL para consultas e otimização de bancos de dados., Conhecimento avançado em Azure e experiência com outras plataformas de cloud como AWS e GCP., Familiaridade com ferramentas de ETL, data lakes e boas práticas de governança de dados..

Key responsabilities:

  • Desenvolver e manter pipelines de dados utilizando Python, PySpark e SQL.
  • Projetar e implementar soluções para migração de dados entre Azure e outras plataformas de cloud.
  • Garantir a eficiência, segurança e qualidade dos dados nos processos de ETL.
  • Colaborar com equipes de engenharia e arquitetura de dados para desenvolver soluções escaláveis.

Alstra Technologies logo
Alstra Technologies
11 - 50 Employees
See all jobs

Job description

Alstra é uma plataforma de "Soluções Inteligentes para Força de Trabalho" que permite que especialistas em suas áreas trabalhem para empresas ao redor do mundo, com flexibilidade e ganhos acima do mercado tradicional!




O que estamos procurando: Engenheiro de Dados

Atuação: Remoto

Pagamento: Moeda Real

Contrato: Como prestador de serviços (PJ) 6 meses



Estamos em busca de um(a) Data Engineer altamente qualificado(a) para atuar em projetos de migração de dados entre diferentes plataformas de cloud, com foco principal em Microsoft Azure. O(a) profissional será responsável por desenvolver, otimizar e manter pipelines de dados eficientes e escaláveis, assegurando a integridade, segurança e qualidade das informações.

Responsabilidades

  • Desenvolver e manter pipelines de dados utilizando Python, PySpark e SQL.
  • Projetar e implementar soluções para migração de dados entre Azure e outras plataformas de cloud.
  • Garantir a eficiência, segurança e qualidade dos dados nos processos de ETL (extração, transformação e carga).
  • Colaborar com equipes de engenharia, arquitetura de dados e áreas de negócio para entender requisitos e desenvolver soluções escaláveis.
  • Monitorar e otimizar processos de dados visando melhor desempenho e redução de custos operacionais.

Requisitos

  • Experiência sólida com Python e PySpark para manipulação e processamento de dados.
  • Domínio de SQL para consultas, análises e otimização de bancos de dados.
  • Conhecimento avançado em Azure e experiência com outras plataformas de cloud (como AWS e GCP).
  • Experiência comprovada com migração de dados entre diferentes ambientes cloud.
  • Familiaridade com ferramentas de ETL, data lakes e data warehouses.
  • Conhecimento em boas práticas de governança e segurança de dados.

Diferenciais

  • Experiência com Databricks e Azure Synapse Analytics.
  • Conhecimento em orquestração de workflows com ferramentas como Apache Airflow ou Azure Data Factory.
  • Certificações em Cloud (Azure, AWS, GCP).


Required profile

Experience

Spoken language(s):
Portuguese
Check out the description to know which languages are mandatory.

Other Skills

  • Collaboration
  • Problem Solving

Related jobs