Ingénieur Support & Exploitation Data (H/F)

KOLABS GROUP recrute !

À propos

KOLABS connecte des champions du digital avec les entreprises pour les accompagner dans leur recherche de compétences dans les domaines Tech, Data et Cybersécurité.

Le défi ? Comprendre parfaitement les besoins des clients afin de proposer les meilleurs candidats pour créer ou compléter une équipe.

KOLABS est animé par une conviction simple : les technologies devenant rapidement obsolètes, ce sont les qualités humaines qui font la différence.

En tant qu’entreprise inclusive et libérée, KOLABS place ses collaborateurs au cœur de son identité.

Descriptif du poste

Dans le cadre du renforcement de l’équipe en charge du maintien en conditions opérationnelles des plateformes Data de notre client, nous recherchons un(e) Ingénieur(e) Support & Exploitation ayant une expertise en environnement de production Kubernetes et technologies Big Data.

Les plateformes concernées sont hébergées sur IKS (IBM Kubernetes Service) et migrent progressivement vers OpenShift. Elles intègrent les briques suivantes :

  • Apache Spark

  • Apache Airflow / Astronomer

  • Starburst (Trino)

Le consultant interviendra au sein de l’équipe DATAHUB, qui fournit un socle de services aux équipes métiers pour le traitement et l’exploitation de la donnée.

Vos missions principales :

  • Assurer le support de niveau 2 en environnement de production (PROD) sur les plateformes Spark, Airflow, Starburst

  • Analyser les incidents (root cause analysis) et en assurer la résolution rapide et durable

  • Optimiser les traitements Spark sur Kubernetes (tuning, configuration, dimensionnement)

  • Optimiser l’orchestration de workflows Airflow et gérer les catalogues Starburst

  • Accompagner les équipes métiers dans l’utilisation efficace, performante et sécurisée des plateformes

  • Participer à l’amélioration continue et à la documentation des procédures d’exploitation

  • Contribuer à la robustesse et à l’évolutivité de l’écosystème technique

Profil recherché

  • Vous avez une expérience confirmée en environnement DATA en production

  • Vous maitrisez au moins deux des technologies suivantes : Spark, Airflow, Starburst (Trino)

  • Vous avez une excellente connaissance de Kubernetes, Helm Charts, et des bonnes pratiques d’exploitation de traitements distribués

  • Vous avez une bonne maîtrise du monitoring/observabilité (Dynatrace, Kibana, Grafana, Prometheus, etc.)

  • Vous avez des compétences en tuning Spark, gestion des ressources Kubernetes, et profiling applicatif

  • Vous avez de l’expérience en CI/CD : Git, Jenkins, GitLab CI

  • Vous avez une bonne connaissance de Hashicorp Vault (Secrets + PKI) et des compétences en scripting : Python, Bash, Ansible

  • Vous êtes doté d’un esprit d’analyse et d’un sens du diagnostic développé

  • Vous aimez travailler dans un environnement technique exigeant, en interaction avec les équipes métiers

  • Vous êtes à l’aise à l’écrit comme à l’oral pour documenter, communiquer, et partager les bonnes pratiques

  • Vous êtes autonome, rigoureux(se), curieux(se) et force de proposition

  • Vous parlez couramment le français et maîtrisez l’anglais technique (documentation, échanges ponctuels)

Informations complémentaires

  • Type de contrat : Freelance
  • Lieu : Paris
  • Expérience : > 5 ans
  • Télétravail partiel possible