Spécialiste MLOps

Montréal, Québec

Apply now Apply later

Fondée en 2004, nous sommes une entreprise technologique pionnière qui propose des jeux et du divertissement pour adultes de calibre mondial sur certaines des plateformes les plus sûres et les plus populaires qui existent actuellement en ligne. Soutenue par une équipe internationale d’innovateurs dynamiques et collaboratifs, sa mission consiste à permettre aux utilisateurs de vivre des expériences sûres et de renforcer ses communautés en célébrant la diversité, l’inclusion et l’expression – tout en maintenant des protocoles solides et dignes de confiance. 

Nous offrons le meilleur des deux mondes! Les talents locaux peuvent s'épanouir dans notre bureau axé sur la collaboration avec la flexibilité d’un environnement de travail hybride, tandis que nos collègues à distance jouent un rôle essentiel au sein de notre culture dynamique. Nous disposons de bureaux à Montréal (Québec), Austin (Texas) et Nicosie (Chypre). 

*Un certain nombre de postes nécessitent une présence au bureau à temps plein*

En tant qu’ingénieur en intelligence artificielle générative, vous serez au cœur de notre innovation, chargé de concevoir, d’intégrer et de déployer des modèles d’IA générative de pointe dans nos projets existants. Vous jouerez un rôle moteur dans l’application concrète de l’IA générative, depuis l’expérimentation et l’entraînement des modèles jusqu’à leur déploiement à grande échelle en production. Le candidat idéal est un expert technique doté d’une solide expérience en DevOps ou en développement logiciel, à l’aise avec les applications Python récentes (voire expérimentales) sous Linux, et capable de coder rapidement des preuves de concept (PoC) et des démonstrations interactives.

Ce que vous ferez : 

  • Déploiement et intégration de modèles : Concevoir, construire et maintenir l’infrastructure permettant de déployer des modèles d’IA générative tels que Stable Diffusion, FLUX et divers modèles de langage de grande taille (LLMs) en environnements de production.
  • Implémentation pratique : Installer, configurer, gérer et dépanner des applications et bibliothèques IA basées sur Python, souvent non testées, sous systèmes Linux.
  • Prototypage rapide : Développer rapidement des PoC et des démonstrations interactives pour illustrer le potentiel des nouveaux modèles et fonctionnalités d’IA.
  • Personnalisation et entraînement de modèles : Prendre en charge l’entraînement de modèles de diffusion et le fine-tuning de LLMs selon les besoins des projets.
  • Création de jeux de données et d’actifs : Construire et gérer des jeux de données de haute qualité pour l’entraînement, et créer des modèles LoRA (Low-Rank Adaptation) pour adapter des modèles fondamentaux à des cas d’usage spécifiques.
  • Gestion de pipelines MLOps : Développer et maintenir des pipelines CI/CD pour automatiser les processus d’entraînement, d’évaluation et de déploiement des modèles.
  • Développement full-stack : Écrire et ajuster du code à travers la stack technologique (Python, PHP, Bash, HTML, JS) pour assurer une intégration fluide des modèles IA dans nos plateformes.
  • Surveillance des performances : Collaborer avec les équipes DevOps et d’ingénierie pour surveiller les performances des modèles, résoudre les problèmes d’intégration, et assurer des déploiements scalables et sécurisés à l’aide d’outils comme vLLM pour un service haute performance.

Ce dont vous aurez besoin pour réussir : 

Compétences essentielles : 

  • Diplôme en informatique, en ingénierie ou dans un domaine connexe.
  • 3 à 5 ans d’expérience en DevOps, MLOps ou ingénierie back-end.
  • Maîtrise experte de Python et des frameworks de machine learning (ex. : PyTorch, TensorFlow).
  • Solide compétence en PHP, Bash, HTML et JavaScript pour l’intégration full-stack.
  • Expérience approfondie en environnement Linux et maîtrise de la ligne de commande.
  • Expérience avérée dans le déploiement et la gestion de modèles d’IA générative, notamment Stable Diffusion, FLUX et divers LLMs.
  • Maîtrise du cycle complet de personnalisation des modèles : création de datasets, entraînement de modèles de diffusion, fine-tuning de LLMs.
  • Connaissance pratique de la création et de l’utilisation de LoRA, ainsi que des frameworks de déploiement comme vLLM.
  • Esprit d’initiative, souci de l’efficacité et de la fiabilité.

Atouts:

  • Expérience avec des outils de conteneurisation et d’orchestration comme Docker et Kubernetes.
  • Connaissance des pipelines CI/CD et des outils d’infrastructure as code (ex. : Terraform).
  • Certifications professionnelles (ex. : AWS, GCP, Azure, CKA/CKAD).
  • Capacité à jongler entre plusieurs projets et technologies avec aisance.

 

En tant qu’employeur souscrivant au principe de l’égalité d’accès à l’emploi, notre entreprise célèbre la diversité et s’engage à créer un environnement inclusif pour tous ses employés.

Ce poste peut vous exposer à du contenu pour adultes.

Le masculin est utilisé dans le seul but d’alléger le texte.

Apply now Apply later

* Salary range is an estimate based on our AI, ML, Data Science Salary Index 💰

Job stats:  0  0  0

Tags: AWS Azure CI/CD DevOps Docker GCP JavaScript Kubernetes Linux LLMs LoRA Machine Learning MLOps PHP Pipelines Python PyTorch Stable Diffusion TensorFlow Terraform vLLM

Region: North America
Country: Canada

More jobs like this