Ingeniero(a) de Datos

Santiago, Chile

KSB Company

We offer solutions for the mining, chemicals and petrochemicals, building services, industry, energy and water markets. Learn more about KSB here.

View all jobs at KSB Company

Apply now Apply later

Propósito del Cargo

Responsable de diseñar, desarrollar y optimizar arquitecturas de datos escalables en la nube. Su principal enfoque es la implementación de soluciones de datos utilizando Microsoft Fabric o Terraform (similares), asegurando la integración eficiente de datos desde múltiples fuentes, la orquestación de flujos ETL/ELT y la optimización del almacenamiento y consulta en Lakehouses y Data Warehouses.

Algunas funciones

  • Diseñar y construir pipelines de datos en Microsoft Fabric utilizando Dataflows Gen2, Data Pipelines y Notebooks.

  • Gestionar el almacenamiento de datos en OneLake y estructurar Lakehouses y Data Warehouses en Azure.

  • Implementar estrategias de ETL/ELT con Azure Data Factory y Fabric Data Pipelines.

  • Desarrollar y mantener soluciones escalables para procesamiento de datos en tiempo real utilizando Event Stream y Real-Time Analytics en Fabric.

  • Optimizar costos y rendimiento en el procesamiento y almacenamiento de datos en Azure.

  • Integrar datos desde diversas fuentes como Azure SQL, Azure Data Lake, APIs, Dataverse, QAD, SAP, archivos planos y otros.

  • Gestionar la seguridad y gobernanza de datos mediante y políticas de acceso en Azure.

  • Colaborar con analistas de datos y científicos de datos para garantizar un acceso eficiente a los datos.

  • Implementar automatización de procesos con Azure DevOps, CI/CD y Terraform (Infraestructura como Código).

Requisitos:

  • Microsoft Fabric: OneLake, Data Pipelines, Dataflows Gen2, Notebooks, Lakehouses, Real-Time Analytics, Data Warehouse en Fabric.

  • Lenguajes de Programación: SQL (avanzado), Python (Pandas, PySpark),

  • ETL/ELT: Diseño y optimización de procesos en Azure Fabric y ADF.

  • DevOps & Automatización: GitHub Actions, Azure DevOps,

  • Gobernanza y Seguridad: Azure Role-Based Access Control (RBAC), Data Lineage, Encriptación.

  • Modelado de Datos: Data Vault, Kimball, Inmon, esquemas en estrella y copo de nieve.

  • Machine Learning (deseable): MLflow, Azure Machine Learning.

  • Licenciatura en Ingeniería en Sistemas, Computación, Matemáticas, Estadística o carreras afines.

  • 4-8 años en ingeniería de datos, con al menos 4 años de experiencia en Azure y Fabric.

  • Big Data & Streaming: (No critico)   Apache Spark en Fabric, Event Hub, Azure Stream Analytics.

Beneficios:

  • Capacitación

  • Becas de Estudios

  • Seguro Complementario de Salud

  • Programa de Bienestar (mental y físico)

  • Casino

  • Bus de Acercamiento, entre otros beneficios

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0

Tags: APIs Azure Big Data CI/CD Data pipelines Data warehouse DevOps ELT ETL GitHub Machine Learning MLFlow Pandas Pipelines PySpark Python Spark SQL Streaming Terraform

Region: South America
Country: Chile

More jobs like this