votre rôle
Les missions s’articulent autour des objectifs suivants :
Développer et mettre en place les processus de collecte (pipelines), d’organisation, de stockage et de modélisation des données ;
Assurer l’accès aux différentes sources, et veiller à la qualité ainsi qu’à la préparation des données. L’accès à ces données sera ainsi facilité pour une exploitation dans des conditions optimales ;
Mettre à disposition les outils et algorithmes permettant de
travailler avec les données, en étant proche des rôles de DevOps et MLOps.
votre profil
De formation Bac +5 (école d'ingénieurs ou équivalent universitaire), Vous possédez une expérience significative de 4 ans ou plus en développement et qualification de solutions data sur nos plateformes.
Nous souhaitons un profil qui sera amener à nous apporter une vision de ce qui se fait de mieux dans le domaine des applications data & IA sur ces plateformes publiques.
• Compétences techniques:
Solide expérience en architecture data, big data & MLOPS (Spark, Kafka, Elasticsearch…) sur des plateformes cloud (GCP, Flexible Engine), connaissance de l’environnement Kubernetes ;
Maitrise de quelques langages : Python (Obligatoire), Java, Golang...
Maîtrise de divers systèmes d’exploitation : Linux (Obligatoire), Windows...
Bonnes connaissances des modèles IaaS (Infrastructure as a Service), PaaS (Platform as a Service), SaaS (Software as a Service) et aptitude à s’adapter rapidement à différentes stacks.
Connaissances approfondies en architecture de data pipelines, en bases de données structurées et non structurées, en APIs et événements.
Connaissances en sécurité IT pour assurer que les solutions délivrées répondent aux exigences de sécurité et protection des données.
• Soft skills:
Flexibilité & adaptabilité
Appétence pour l’apprentissage
Esprit d’équipe
Orienté objectif
Capacité d'organisation et d'analyse
Bon relationnel
Pro-activité & autonomie
Rigueur
• Langue : En plus du Français, maîtrise de l’anglais à l’oral et à l’écrit
contrat
CDI
Technopolis - Maroc