
Descripción del puesto
Los requisitos para un buen desempeño de las funciones son:
1 año de experiencia como Data Engineer.
Programación en lenguaje Python, NodeJS o Java (al menos uno de los 3).
Conocimiento de soluciones de Data Warehouse y ETL.
Conocimiento de plataformas de procesamiento de datos como Apache Spark, Dataflow o similares.
Haber trabajado previamente con alguna nube pública (AWS, Azure o GCP).
Si no cumples alguno de estos puntos no te desanimes, queremos conocerte igualmente.
El trabajo es 100% remoto, pero es necesario que tengas RUT y/o papeles al día en Chile.
Esperamos que puedas desempeñarte en las siguientes actividades:
Creación de pipelines de carga y transformación de datos.
Modelamiento de datos y creación de Data Warehouse y Data Lakes.
Integración de sistemas.
Creación de modelos de machine learning con herramientas low code autoML.
Vas a participar como ingeniero de datos en equipos de consultores que prestan servicios a empresas importantes en Chile. En estos equipos participan distintos perfiles, tales como desarrolladores de software, arquitectos de datos y data scientists. Los servicios se prestan de forma remota y son prestados por proyecto (no es outsourcing de recursos), por lo que puedes trabajar desde tu casa sin problemas. Diariamente vas a tener reuniones con tu equipo para coordinar actividades y resolver temas complejos que vayan surgiendo.
Requisitos
- Suman puntos en tu postulación si cumples alguna de las siguientes habilidades, ninguno de estos son excluyentes:
- Conocimiento de herramientas Google Cloud, entre ellas Google BigQuery, Dataflow, Data Fusion y Pub Sub.
- Experiencia en plataformas de deployment de infraestructura como Terraform.
- Experiencia utilizando la herramienta de consola gcloud.