Weborama recrute un(e) MLOPs Engineer

MLOPs Engineer

 

Descriptif du poste

L’équipe Data Science

Vous rejoindrez une équipe composée actuellement de 8 personnes aux profils variés (Data Scientist, ML & MLOPs Engineer).

En pratique

  • Une variété de projets
    • A titre d’exemples, nous élaborons des moteurs de recherche augmentés par le Deep Learning, des générateurs de contenu, des outils de détection de tendance sur le Web, des outils d’extraction d’insights sur des corpora, des moteurs auto-ml, des outils d’annotation…
    • Nous partageons notre temps entre la recherche, l’élaboration de POCs concrets, la mise en production de composants IA et la maintenance ou l’évolution des services existants.
  • Ce poste est visé pour :
    • La mise en production de solutions IA.
    • La participation aux POCs.
    • La maintenance/l’évolution des services existants. A noter que nous avons construit des jobs aussi bien en Java qu’en Python selon les exigences du projet. Par exemple, nous maintenons un système de recommandation en Python s’appuyant sur les Transformers ainsi qu’un prédicteur de profil de visiteurs en Java reposant sur Spark Structured Streaming et Spark ML.

 

Profil recherché

  • Vous êtes un ingénieur MLOPs, enthousiaste autour de l’IA.
  • Vous justifiez d’une expérience de 2 ans minimum sur des sujets similaires (professionnelle, projet personnel, thèse, etc ..).
  • Profil Recherché
    • Fortes capacités en programmation (propre, lisible et facile à maintenir): Java, Python.
    • Mise en production d’algorithmes de Machine Learning.
    • Développement logiciel et test: construction d’API, les bases en réseau, utilisation du Shell, Tests.
    • Stack technique: Git, Github, Docker, gitlab-CI, Kubernetes, ArgoCD.
    • Data Engineering: Apache Spark, Hadoop Yarn, MessageQueue (RabbitMQ, Kafka)
    • Database: HBase, ElasticSearch, Vector Database (Milvus).
    • ML stack: Spark ML, Numpy, Scikit-Learn, SciPy, HuggingFace, Pandas
    • Restful API frame-work: Flask, FastAPI, SpringBoot.
    • Cloud: GCP ou AWS.
    • Autonome et rigueur dans le travail avec esprit hacker, agilité
    • Curieux, enthousiaste autour de l’IA

      Compétences Techniques Appréciées

    • Capacité à coder des jobs en Java Spark et déploiement.
    • Cloud computing: EMR, GCP DataProc, SnowFlake (SnowPark est un plus).
    • Des notions de Deep Learning.

      Bureau: Levallois-Perret

      Contrat: CDI

      Télétravail: 2 jours par semaine

       

       Déroulement des entretiens
      • étape 1: QCM technique
      • étape 2: entretien technique en présence d’un “Lead”
      • étape 3: rencontre d’un “top manager”

       

      Pour postuler

      Vous êtes intéressé(e) par cette offre ? Postulez en ligne ici