Compétences Requises :
Expérience avérée : 5+ ans en tant que Data Engineer, avec une expertise démontrée dans la conception et la mise en œuvre de solutions de données scalables.
Maîtrise technique : Expertise en technologies de traitement des données telles que Spark, Hadoop, Kafka, ainsi que des outils de gestion de flux de données.
Langages de programmation : Solides compétences en Python, Java, Scala et expérience pratique avec des bases de données SQL et NoSQL.
Modélisation et manipulation de données : Connaissance approfondie des pratiques de modélisation et de manipulation de données ainsi que des concepts de data warehouse et de data lake.
Cloud et Big Data : Expérience dans l'utilisation de plateformes cloud (AWS, Azure, GCP) pour les solutions Big Data.
Outils d'orchestration : Expertise dans des outils d'orchestration de workflows comme Airflow ou Luigi.
Compétences en Data Science : Connaissance des principes de Data Science, analyse exploratoire des données (EDA), et utilisation d'algorithmes d'apprentissage automatique pour la manipulation des données.
Visualisation des données : Expérience avec des outils de visualisation comme Tableau, Power BI, ou matplotlib/Seaborn pour Python.
Qualités interpersonnelles : Capacité à travailler de manière autonome tout en collaborant efficacement au sein d'équipes multidisciplinaires.
Communication : Maîtrise du français (à l'oral et à l'écrit) indispensable, toute autre langue est un plus.