Data Engineer Sénior en Freelance

novancy

DESCRIPTION DE LA MISSION.
Intégré(e) dans les équipes DF Supply Chain de notre client, le/la consultant(e) aura pour mission de concevoir, développer et maintenir des solutions de traitement de données massives en utilisant les technologies Big Data et les outils GCP. Il/elle sera responsable de la mise en place et de l’optimisation des pipelines de données, de l’analyse des performances et de l’amélioration continue des solutions existantes.
Niveau d'expérience : >7 ans
Localisation : Casablanca, Maroc
Durée de la prestation : 6 mois renouvelable (220 à 225 JH)
ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES.
Maîtriser les technologies Cloud de Google Cloud Platform (GCP) pour la gestion des données, l’orchestration et le déploiement des solutions Big Data.
Avoir une expertise approfondie de BigQuery et BigTable pour le stockage, la manipulation et l’analyse de données à grande échelle.
Maîtriser les langages de programmation Scala ou Java pour le développement de solutions Big Data, avec une expérience significative dans l’un des deux.
Avoir une expérience pratique avec l’écosystème Hadoop et ses outils associés comme Spark et Apache Kafka pour le traitement distribué de données.
Etre capable de concevoir et d’implémenter des pipelines de données complexes en utilisant des outils comme Apache Kafka et Avro pour la gestion des flux de données.
Maîtriser les concepts de base de Kafka pour la conception et la mise en œuvre de systèmes de messagerie distribués.
Avoir une bonne compréhension des bases de données NoSQL, notamment Cassandra et BigTable, pour le stockage et la récupération de données non structurées.
Avoir une expérience avec les moteurs de recherche comme Elasticsearch pour la recherche et l’analyse de données textuelles.
Maîtriser les outils de CI/CD et les pratiques de développement logiciel pour l’automatisation du déploiement et de l’intégration continue.
Avoir une expérience pratique avec les outils de déploiement et d’orchestration comme Jenkins, GitLab, Kubernetes, Docker et Ansible.
Etre capable de travailler avec Docker pour la création et la gestion des conteneurs d’applications.
Maîtriser les concepts d’Agilité (Scrum, Sprint Planning, Backlog…).
MÉTHODES, ORGANISATIONS ET INTERACTIONS.
Excellente communication écrite et orale : Bonne communication écrite et orale en français pour des interactions fluides avec le métier.
Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer.
Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration.
Capacité à respecter les délais tout en maintenant des standards élevés.
Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs
NIVEAU ET TYPE D’EXPERTISE REQUIS.
Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente
Expérience de plus de 7 ans en GCP
Une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus.

Aperçu

  • Titre d'emploi: Data Engineer Sénior en Freelance
  • Date de publication : 2025-10-11
Postuler pour cet emploi

Postuler pour cet emploi