Especialista DataOps – Nivel Medio
Ninguno
Compensación:
USD 1.2k/mes.
Ubicación:
Remoto (para residentes de Argentina, Bolivia, Brasil, Chile, Colombia, Costa Rica, Ecuador, El Salvador, Guatemala, México, Honduras, Nicaragua, Paraguay, Perú, Uruguay y Venezuela).
Misión de Softgic:
- Entregar productos y servicios de calidad.
- Lograr la satisfacción de nuestros clientes internos y externos.
- Fomentar en nuestro equipo la importancia de la formación para crecer profesional y personalmente a través de planes de desarrollo.
- Cumplir con los requisitos legales y normativos aplicables.
- Promover la mejora continua del sistema de gestión de la calidad.
¿Qué te hace un candidato ideal?
- Tienes 2+ años de experiencia en AWS, DataOps y ETL (Extract, transform, load).
- Eres competente en PySpark, IaC (Infraestructura como código), CI/CD y Apache Airflow.
- Español - Nativo o completamente fluido.
Responsabilidades y más:
- Diseñar y desarrollar pipelines ETL/ELT con AWS Glue.
- Implementar flujos de migración de datos con AWS DMS.
- Gestionar catalogación, permisos y metadatos en Lake Formation y DataZone.
- Optimizar la transformación y carga de datos en Redshift y PySpark.
- Implementar controles de calidad de datos y validaciones automatizadas.
- Administrar ambientes de datos en AWS, asegurando seguridad y cumplimiento.
- Monitorear y optimizar procesos con CloudWatch y Apache Airflow.
- Documentar procesos, arquitecturas y mejoras en los sistemas de datos.
Requirements
- Título técnico o profesional en áreas como Ingeniería de Sistemas, Informática, Ciencia de Datos, o afines.
- Al menos 2-3 años de experiencia en roles relacionados con DataOps, ETL, y gestión de datos en AWS.
Certificaciones Requeridas:
- AWS Solutions Architect Associate.
- AWS Data Analytics Specialty o Data Engineer (deseable).
Competencias Clave:
- Servicios de AWS: Glue, DMS, Lake Formation, Redshift, S3, Macie, IAM.
- Desarrollo de ETL y optimización de pipelines de datos.
- Calidad de datos y gestión de metadatos.
- Monitoreo y alertamiento con CloudWatch, Macie, KMS y CloudTrail.
- Automatización de procesos con Apache Airflow, StepFunctions y Shell Scripting.
- Infraestructura como código (IaC) con Terraform o CloudFormation.
- Control de versiones con Git y prácticas de CI/CD.
- Automatización de pruebas para asegurar la calidad de los datos.
- Generación de documentación sobre arquitectura y procesos.
Benefits
- Estamos certificados como un Gran Lugar para Trabajar.
- Oportunidades de crecimiento y desarrollo.
- Días de descanso remunerados.
- Apoyo para educación formal y certificaciones.
- Beneficios con empresas asociadas.
- Programa de referidos.
- Horarios de trabajo flexibles.
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: Airflow AWS AWS Glue CI/CD CloudFormation Data Analytics DataOps ELT ETL Git Lake Formation Pipelines PySpark Redshift Shell scripting Terraform
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.