Data Engineer
1 VacantesSistemas en Santiago - Providencia, R.Metropolitana
- Salario: $ 2.200.000,00 (Mensual)
- Categoría: Informática / Telecomunicaciones
- Subcategoría Sistemas
- Localidad: Santiago - Providencia
- Activo desde: 30/04/2025
- Jornada: Jornada de 44 horas semanales
- Tipo de Contrato: contrato a plazo fijo
- Cantidad de Vacantes: 1
- Educación Mínima: Universitaria / I.P. / C.F.T.
- Años de Experiencia: 3
Somos una empresa con más de 34 años de experiencia en el mercado, especializada en fábrica de desarrollo de software y Outsourcing de profesionales TI. Nuestra casa matriz está en Concepción y también operamos en Santiago. Actualmente, buscamos incorporar a nuestro equipo un/a Data Engineer
Condiciones de contratación
Ubicación: híbrido en Providencia, Santiago;
Modalidad: híbrida;
Contrato: por proyecto (6 meses);
Jornada: completa (44 horas semanales).
Responsabilidades
Diseñar, desarrollar y mantener pipelines de datos eficientes y escalables (ETL/ELT) para integrar diversas fuentes de datos, respondiendo a las necesidades de los equipos de ciencia de datos y análisis
Implementar y administrar arquitecturas de almacenamiento de datos (Data Warehouses, Data Lakes, etc.).
Garantizar la calidad, integridad y seguridad de los datos procesados.
Colaborar con equipos de analítica y ciencia de datos para proporcionar datos limpios y procesables.
Optimizar el rendimiento y la escalabilidad de las infraestructuras de datos.
Implementar soluciones de monitoreo y diagnóstico para los sistemas de datos.
Documentar arquitecturas, procesos y flujos de trabajo relacionados con los datos.
Requisitos
Desde 3 años a 5 años de experiencia;
Experiencia en la creación de pipelines de datos utilizando herramientas como Apache Airflow, Apache Nifi, Step Functions o similares.
Conocimientos avanzados de bases de datos relacionales y no relacionales (SQL, PostgreSQL, MongoDB, etc.). Dominio de PL-SQL.
Dominio de lenguajes de programación como Python o Scala.
Experiencia trabajando con plataformas de Big Data como Hadoop o Spark.
Familiaridad con arquitecturas en la nube (Idealmente sobre AWS) y herramientas relacionadas (S3, EMR, Athena, Glue, Redshift, etc.).
Experiencia en la implementación de procesos de control de calidad de datos y depuración..
¡Postula!