Cloud Native Engineer
Italy - Remote
Kiratech offre la sua esperienza alle imprese che vogliono migliorare la propria qualità e competitività adottando un approccio PlatformOps. Aiutiamo i clienti nel percorso di modernizzazione infrastrutturale e applicativa attraverso i nostri servizi e attraverso la selezione delle migliori tecnologie in ambito Platform AI, Platform Engineering e Platform Security.
L'obiettivo di Kiratech è supportare, con il proprio platform team, i clienti a produrre valore per il loro business. Come? Tramite la nostra proposta di servizi professionali, formazione, Managed Service e la rivendita dei migliori tool.
Kiratech è alla ricerca di una/un Cloud Native Engineer specializzata/o in AI per il suo Engineering Team.
La figura si occuperà di contribuire attivamente come parte di un team, su progetti attivi presso i clienti di Kiratech nell’adozione di tecnologie e pratiche di data science and machine learning engineering Platform e Cloud Native.
La persona che meglio si presta a questo ruolo ha esperienza consolidata nella definizione e implementazione di soluzioni cloud per ML e AI, un forte background in architetture Cloud Native, e capacità di leadership per coordinare team multidisciplinari e interfacciarsi con stakeholders tecnici e di business.
Questo ruolo richiede una figura capace di guidare l'innovazione, con un approccio pratico alle tecnologie Cloud & AI, un mindset orientato alla scalabilità e all’automazione, e una forte capacità di adattamento a scenari tecnologici in rapida evoluzione.
Requirements
Conoscenze e competenze necessarie:
Tecniche
Machine Learning & MLOps
- Esperienza nella gestione del ciclo di vita dei modelli ML (Model Engineering, Deployment, Monitoring)
- Conoscenza di strumenti di MLOps (MLFlow, Kubeflow, TensorFlow, MetaFlow, Vertex AI, SageMaker, Azure ML)
- Integrazione di AI con pratiche DevSecOps (SonarQube, Snyk, Trivy e strumenti di sicurezza e compliance)
- Competenza su Data Analytics e AI-driven monitoring (Prometheus, Loki, Elastic Stack, Grafana)
- Conoscenza di architetture dati moderne per supportare l’addestramento e l’inferenza di modelli di AI e LLM (RAG, Vector DB, Feature Store).
- Esperienza nella gestione/implementazione o integrazione di strumenti per la gestione di Data Lake, Data Mesh e ETL - Desiderata
- Capacità di progettare pipeline efficienti e ottimizzate per l’elaborazione di dati strutturati e non strutturati, con particolare attenzione alla qualità, deduplicazione e arricchimento delle informazioni per modelli AI - Desiderata
Sviluppo & Automazione
- Programmazione in Python per la creazione di librerie e SDK ML/AI e Go per la componente Platform
- Conoscenza di Apache Spark, Kafka & Flink, Neo4j, OpenAI API per AI e Big Data
- Esperienza con pipeline CI/CD per ML (GitHub Actions, GitLab CI, Jenkins, Keptn, ArgoSuite)
- Ottimizzazione ed utilizzo delle pratiche di AI-driven software engineering
Cloud & Infrastructure
- Esperienza con architetture Cloud Native (AWS, Azure, Google Cloud) e gestione di infrastrutture scalabili per AI/ML
- Padronanza di strumenti Infrastructure-as-Code (Terraform, Ansible) e metodologia GitOps (Flux, ArgoCD)
- Amministrazione avanzata di Kubernetes e container orchestration (CKA richiesta)
- Conoscenza di Red Hat OpenShift AI e ambienti containerizzati per AI workloads - Desiderata
Technical Project Lead
- Esperienza come manager tecnico in contesti di consulenza, R&D o enterprise AI/ML
- Conoscenza di metodologie di Service Management e Project Management (ITIL, PRINCE2, AgilePM)
- Leadership nella gestione di team cross-funzionali e coordinamento di progetti complessi
Lingue
- Buona conoscenza della lingua inglese dal punto di vista professionale
Costituiscono titolo preferenziale certificazione o esperienza dimostrabile in:
- Utilizzo di strumenti di AI per l’efficientamento delle pratiche di software engineering e/o per l’integrazione di AI nel software
- Red Hat OpenShift AI
- Apache Spark, Apache Flink, Apache Hadoop, Kafka, Neo4j, OpenAI
- Conoscenza di strumenti LLM e AI generativa, con esperienza su modelli e framework come OpenAI, Anthropic Claude, Meta Llama, Mistral, Hugging Face Transformers e relative API.
- Esperienza nell’uso di AI per il software engineering (ad es. AI-powered code completion con GitHub Copilot, Tabnine, Codeium).
- Stack Elastic (Kibana, Logstash, Beats), od in alternativa stack Grafana (Grafana, Loki, Prometheus, Promtail)
- Esperienza con tool AI di ultima generazione (MPC, Operator, etc)
- Approcci DevSecOps:
- Strumenti di code quality (ad esempio SonarSource, Mend)
- Software supply chain management (ad esempio Snyk, Trivy) e metodi associati (SAST, DAST)
Se non ti riconosci a pieno nella descrizione del profilo perchè possiedi solo una parte o una minima parte delle conoscenze e delle competenze illustrate, ma sei comunque interessato alla nostra realtà, inviaci il tuo CV qui: Candidatura spontanea - Kiratech saremo lieti di valutare la tua candidatura per altre posizioni simili.
Benefits
Cosa offriamo?
- Formazione continua: 1 giorno al mese dedicato alla formazione tramite l'ausilio di piattaforme dedicate
- Working from anywhere (1 mese all’anno o 4 settimane)
- Recharging Friday (1 venerdì a trimestre retribuito)
- Voce amica
- Ticket Restaurant elettronici
- Welfare aziendale
- Lavoro in un contesto aziendale giovane, dinamico, tecnologicamente innovativo
* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰
Tags: Ansible Anthropic APIs AWS Azure Big Data CI/CD Claude Copilot Data Analytics Engineering ETL Flink GCP GitHub GitLab Google Cloud Grafana Hadoop ITIL Jenkins Kafka Kibana Kubeflow Kubernetes LLaMA LLMs Logstash Machine Learning MLFlow MLOps Neo4j OpenAI Python R RAG R&D SageMaker Security Spark TensorFlow Terraform Transformers Vertex AI
Perks/benefits: Career development
More jobs like this
Explore more career opportunities
Find even more open roles below ordered by popularity of job title or skills/products/technologies used.