Ce que nous recherchons
Nous recherchons un.e Ingénieur.e De Données expérimenté.e et motivé.e, souhaitant travailler sur des défis ambitieux, à savoir : accompagnement de projets clients exigeants à forte visibilité, amélioration continue de nos pôles d’expertise, excellence de nos offres, conférences, réseautage, engagement sociétal et environnemental 🌱.
Idéalement, nous souhaitons une personne capable de passer d’une posture d’écoute et d’analyse, à une posture de leader. Nous attendons de nos consultants une force de conviction, capable d’orienter nos clients et d’appuyer des décisions de conception vers des équipes de développement.
Avant tout nous recherchons des personnalités qui incarnent un esprit intrapreneur et qui souhaitent prendre part à une jeune entreprise en pleine croissance.
Ces valeurs te correspondent ? Tu souhaites évoluer en autonomie dans une ambiance fun et décontractée ? Sois attentif, ce job est fait pour toi 👋!
Ce que nous pouvons faire ensemble
En nous rejoignant, tu intégreras notre pôle d’expertise de data. Ton rôle sera (1) d’apporter ton savoir sur la réalisation des projets clients et (2) de participer au développement du centre de compétences de développement.
En ce sens, voici un aperçu de ce que seront tes responsabilités:
- Améliorer de manière significative les capacités de notre client à exploiter pleinement les données tout en gérant les risques.
- Contribuer à l’enrichissement d’une nouvelle plateforme avec des blocs de données.
- Comprendre, formuler et remettre en question les besoins métier, et les traduire en spécifications de données qui contribueront à la livraison ou à l’amélioration de produits analytiques.
- Utiliser Azure Data Factory pour l’ingestion dans le data lake
- Utiliser Databricks pour la transformation et le chargement de données
- Utiliser Spark/Scala/Python pour le développement des bibliothèques de chargement
- Participer au développement du nouveau modèle d’ingestion en utilisant Databricks Streaming
- Développer des meilleures pratiques pour la validation de la qualité des données
- Collaborer avec l’équipe pour maintenir la cohérence de la plateforme et assurer le transfert de connaissances
- Participer aux réunions d’équipe Agile (Sprint Planning, Task breakdown, Sprint Review et Retrospective).
- Participer aux meetups et encadrer techniquement les projets et les équipes.
Expérience requise
- Minimum de 5 années d’expérience pertinente en données et analytiques
- Connaissance approfondie de l’utilisation et de la configuration de la solution Databricks;
- Compréhension des outils d’ingénierie de données et de modèles de machine learning;
- Connaissance de d’autres progiciels de données (Snowflake, Fabric, Airflow AWS …);
- Forte expérience en développement et automatisation de processus CI/CD (ex: Azure DEVOPS ou équivalent);
- Maîtrise d’un ou plusieurs langages de programmation (SQL, Python, Jfrog, C#, etc.);
- Être familier avec les concepts clés entourant la données (transformation, stockage, modélisation, etc..);
- Connaissance du framework de processus Scrum (ou autre méthodologie Agile);
- Maîtrise du français et de l’anglais;
- Notions sur les frameworks / outils d’automatisation de la configuration continue (IaC), un atout;
- Une expérience de projet dans le domaine Intelligence d’affaires, un atout;