Match score not available

Data Engineer AWS/Python

Remote: 
Full Remote
Experience: 
Mid-level (2-5 years)
Work from: 

Offer summary

Qualifications:

Minimum 3 years of relevant experience, At least 2 years in AWS solutions, Proficient in SQL, NoSQL, and Python, Experience with data pipelines and streaming.

Key responsabilities:

  • Implement data transformation and loading
  • Develop data pipelines using AWS services
GRUPO NS logo
GRUPO NS Information Technology & Services Large http://www.grupo-ns.com
201 - 500 Employees
See all jobs

Job description

Desde Grupo NS precisamos incorporar un Data Engineer con experiencia en AWS con nivel avanzado de inglés para un proyecto 100% remoto

Requisitos

Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.

Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS

Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,

Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS

Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline

Experiencia o exposición a AWS Dynamo DB será un plus

Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL

Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y

producción desde Kafka, Kinesis sería un plus

Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno

empresarial utilizando Apache Airflow/Control M

Experiencia implementando Redshift en AWS o cualquiera de Databricks

Grupo NS, es una empresa donde se valora tanto el perfil profesional tecnológico de los trabajadores, como el interés y la aptitud que demuestren a la hora de desarrollar nuevos proyectos.

Por ello, requerimos personas constantes, con ganas de evolucionar y aprender.

Requisitos mínimos

Mínimo 3 años de experiencia implementando la transformación y carga de datos desde una amplia variedad de fuentes tradicionales y no tradicionales como estructuradas, no estructuradas y semiestructuradas utilizando SQL, NoSQL y canalizaciones de datos para cargas de trabajo en tiempo real, de streaming, por lotes y bajo demanda.

Al menos 2 años implementando soluciones utilizando servicios de AWS como Lambda, AWS

Step Functions y Glue, AWS S3, Redshift, Kinesis, DynamoDB, Apache Spark,

Experiencia trabajando con lagos de datos de almacenamiento de datos o conceptos de Lakehouse en AWS

Experiencia implementando procesamiento por lotes utilizando AWS Glue/Lake formation, & Data Pipeline

Experiencia o exposición a AWS Dynamo DB será un plus

Desarrollo de código orientado a objetos utilizando Python, además de PySpark, SQL

Experiencia en tecnologías de Streaming tanto OnPrem/Cloud como consumiendo y

producción desde Kafka, Kinesis sería un plus

Experiencia construyendo pipelines y orquestación de flujos de trabajo en un entorno

empresarial utilizando Apache Airflow/Control M

Experiencia implementando Redshift en AWS o cualquiera de Databricks

Required profile

Experience

Level of experience: Mid-level (2-5 years)
Industry :
Information Technology & Services
Spoken language(s):
Spanish
Check out the description to know which languages are mandatory.

Data Engineer Related jobs