Data Engineer (GCP) - CL
Full TimeJob Overview
En Imagemaker estamos en busca de Data Engineer con experticia en la transformación de datos crudos en activos de datos confiables, seguros y estratégicos; promoviendo el avance hacia una cultura data-driven con la misión de diseñar, implementar y mantener pipelines robustos, gobernados y escalables, asegurando que los datos estén disponibles de manera oportuna, limpios, estructurados y listos para ser utilizados por analistas, equipos de producto, negocio y ciencia de datos.
IMPORTANTE: Esta es una posición hibrida disponible para personas en Santiago y alrededores.
En el marco de nuestro compromiso con la inclusión, la siguiente vacante está abierta en el marco de la ley 21.015, te instamos a postular enviando tu CV.
IMPORTANTE: Esta es una posición hibrida disponible para personas en Santiago y alrededores.
En el marco de nuestro compromiso con la inclusión, la siguiente vacante está abierta en el marco de la ley 21.015, te instamos a postular enviando tu CV.
Principales Responsabilidades
- Construir y operar pipelines de datos, garantizando su calidad, seguridad y gobernanza, además de optimizar continuamente la infraestructura.
- Diseñar y exponer APIs y servicios de datos para habilitar el consumo analítico y operacional, asegurando datasets limpios, estructurados y accesibles.
- Trabajar de manera colaborativa con Data Scientists, Analytics Engineers, Product Managers y equipos operativos, y participa activamente en iniciativas del Chapter de Datos como Data Foundation, automatización, generación de insights, medición de impacto y operación de productos en RUN.
Technical & Power Skills
Dominio Tecnológico (GCP Excluyente)
- Cloud Core: Experiencia avanzada y excluyente en GCP (Google Cloud Platform), incluyendo el uso de componentes como Cloud SQL, Dataflow, Pub/Sub e IAM.
- Lenguaje: Dominio de Python para el desarrollo de pipelines y automatizaciones.
- SQL: SQL Avanzado con foco en optimización de queries, performance y costos.
- Infraestructura/DevOps: Conocimiento de Terraform y GIT.
Ingeniería y Arquitectura de Datos
- Diseño de Pipelines: Capacidad para diseñar y optimizar pipelines de datos (batch y streaming).
- APIs: Experiencia en la construcción de APIs / microservicios para la ingesta y el consumo de datos.
- Buenas Prácticas: Aplicación de buenas prácticas de ingeniería de software (modularidad, testing, logging y observabilidad).
- Modelado (Deseable): Experiencia en dbt o frameworks de modelamiento.
- Orquestación (Deseable): Familiaridad con Airflow u otros orquestadores.
Make Your Resume Now