Ce que nous recherchons
Vous rejoignez un acteur majeur disposant d’un laboratoire de science des données de grande envergure, où l’ingénierie des données joue un rôle central.
Dans un environnement innovant et orienté IA, vous contribuez à la construction de plateformes permettant de fournir des données fiables et exploitables pour des cas d’usage avancés en machine learning et intelligence artificielle.
Vous évoluez dans un écosystème cloud moderne et travaillez en collaboration avec des équipes pluridisciplinaires (data scientists, analystes, architectes).
Idéalement, nous souhaitons une personne capable de passer d’une posture d’écoute et d’analyse, à une posture de leader. Nous attendons de nos consultants une force de conviction, capable d’orienter nos clients et d’appuyer des décisions de conception vers des équipes de développement.
Avant tout nous recherchons des personnalités qui incarnent un esprit intrapreneur et qui souhaitent prendre part à une jeune entreprise en pleine croissance.
Ces valeurs te correspondent ? Tu souhaites évoluer en autonomie dans une ambiance fun et décontractée ? Sois attentif, ce job est fait pour toi 👋!
Ce que nous pouvons faire ensemble
- Concevoir, développer et maintenir des pipelines de données performants et sécurisés
- Participer à l’ingestion de données provenant de sources multiples
- Mettre en place des transformations complexes pour préparer les données
- Contribuer à la qualité et à la fiabilité des datasets utilisés par les équipes data
- Participer à la définition et à l’implémentation des bonnes pratiques en data engineering
- Collaborer avec les équipes data, produit et architecture dans un environnement Agile
- Jouer un rôle de lead technique / référent sur certains sujets
Expérience requise
- Bac +5 en informatique, génie logiciel ou équivalent
- Minimum 6 ans d’expérience en data engineering / software engineering
- Excellente maîtrise de Python
- Expérience significative avec PySpark
- Expérience en ETL / Data Warehouse
- Bonne compréhension des principes de développement (POO, SOLID)
- Connaissances en machine learning / IA (un plus)
- Capacité à évoluer dans un environnement collaboratif et Agile
- Bilinguisme (FR / EN) apprécié dans un contexte international
Expérience requise
- Cloud : AWS
- Data : Databricks, Snowflake
- Langages : Python, PySpark
- Méthodologie : Agile (Scrum)
Ce qui fait la différence
- Projet au cœur des enjeux data & IA
- Environnement technique moderne et scalable
- Forte exposition à des cas d’usage avancés (ML / GENAI)
- Possibilité d’avoir un impact structurant sur la pratique data




