L’ENTREPRISE : LEADER DANS LA CONCEPTION DE SOLUTIONS TECHNOLOGIQUES
VOS MISSIONS : APPORTER VOTRE EXPERTISE TECHNIQUE ET VOTRE LEADERSHIP
En tant que Senior Data Engineer, votre rôle sera d’industrialiser des solutions d’IA scalables à grande échelle, de développer des pipelines de transformation de données à gros volume ainsi que de mettre en place des solutions de stockage centralisé adaptées (data warehouses, data lakes, …). Ces solutions s’inscrivent dans le cadre de projets sur-mesure pour leurs clients ou pour répondre aux besoins en data engineering de leurs propres produits. Parallèlement à ces activités de conception, vous participerez également à faire grandir l’offre de Data Engineering / ML Engineering / ML Ops ! Vos responsabilités :- Participer à la conception et l’optimisation de solutions technologiques traitant un gros volume de données à grande échelle et répondant aux besoins des utilisateurs/clients
- Participer au pilotage d’une équipe expérimentée de data engineers
- Perfectionner ses compétences et chercher constamment à améliorer les outils et les méthodes employées (veille technologique, R&D, échanges de bonnes pratiques, hackathons)
- Participer à des code reviews avec les membres de votre équipe, challenger les implémentations, partager votre expertise et faire grandir les profils juniors autour de vous
- Prendre part aux cérémonies et sprint reviews en lien direct avec le client / les équipes produits
- Participer à l’évolution de la stack technique de ML Ops
- Participer à l’évolution de l'offre de Data Engineering en épaulant ponctuellement l’équipe commerciale grâce à votre expertise technique
- Participer au développement de projets internes transverses : recherche, OPS, sécurité, formations, etc…
VOTRE PROFIL :
Skills :
- Expérience avec un langage de programmation (Java / Kotlin / Scala / Python)
- Bonne compréhension des solutions de processing de données (queueing, streaming, batch processing, caching)
- Bonne compréhension des solutions de stockage données (bases de données SQL / NoSQL, data warehouse, data lake, data lakehouse)
- Expérience avec Git et des outils d’intégration continue
- Expérience avec Docker
Un petit plus pour appuyer votre candidature ?
- Compétences en cloud (Azure, GCP, AWS, Databricks, Snowflake, etc)
- Utilisation de solutions de MLOps / ML Engineering (Bento ML, Zen ML, ClearML, MLFlow, Dvc, …)
- Expérience en OPS (Kubernetes, Terraform, Ansible, …)
- Tests unitaires et d’intégration
- Expérience avec un framework back-end (Spring, Symfony, …)
- Connaissances en IA / data science (machine learning, deep learning, NLP)
LES MODALITES :