Beetween est un éditeur de logiciel de recrutement (ATS) déjà classé parmi les 250 premiers éditeurs de logiciels en France, nous poursuivons l'objectif de devenir le leader Européen des logiciels de recrutements!
Nous sommes passés en quelques mois de 20 à plus de 100 collaborateurs présents sur plusieurs sites dont Rennes, Région parisienne, Marseille et Toulouse après le rachat de deux concurrents dont un en Europe .
Objectif : digitaliser les processus de recrutement, simplifier les tâches chronophages et accompagner les professionnel(le)s RH pour leur permettre de se consacrer pleinement aux candidats !
Pour accompagner cette croissance nous recrutons un(e) Data Engineer pour notre Team Rennes !
En tant que Data Engineer, vous jouerez un rôle clé dans la mise en place et le développement de la solution de données du produit Beetween .
Vous serez responsable de la conception, de l'implémentation et de la gestion de pipelines de données robustes. Vous travaillerez en étroite collaboration avec l'équipe Product and Tech pour garantir la qualité, la performance et l'évolutivité des systèmes de gestion de données.
CE QUE NOUS ALLONS ACCOMPLIR ENSEMBLE :
Vos principales missions :
Concevoir, développer et maintenir des pipelines de données efficaces et scalables à partir de solutions open-source (Kafka, Airflow, DBT, etc.).
Participer à la création de la stack Data de Beetween tenant compte des bonnes pratiques de gestion et de traitement des données.
Intégrer des sources de données diverses et mettre en place des processus d'ETL.
Collaborer avec les équipes DevOps pour assurer une bonne qualité des données et une efficacité maximale des systèmes de traitement.
Optimiser les performances des flux de données et garantir leur scalabilité.
Assurer une veille technologique sur les solutions open-source et proposer des améliorations pour faire évoluer l'architecture data.
QUI ETES VOUS ?
Votre Expérience : 2 à 3 ans d’expérience en tant que Data Engineer, avec une solide maîtrise des technologies open-source dans l’écosystème data (par exemple : Hadoop, Spark, Kafka, Airflow, DBT etc.).
Vos Compétences techniques :
Maîtrise des bases de données SQL et NoSQL.
Connaissance des langages de programmation comme Python et Java
Expérience avec des outils de gestion des données (ETL, orchestration de workflows).
Notions de cloud computing (AWS, GCP, Azure) et des outils associés (Redshift, BigQuery, S3, etc.).
Vos Compétences analytiques : Capacité à résoudre des problèmes complexes liés au traitement et à l’analyse de données à grande échelle.
Vos Softskills : Autonomie, rigueur, esprit d’équipe, et curiosité pour les nouvelles technologies
RETROUVEZ NOUS SUR WELCOME TO THE JUNGLE