Lieu de la formation
Casablanca
Durée de la formation
4 mois
Date de démarrage
Septembre 2025
Conditions d'accès
- Minimum Bac+2 en informatique
Maroc Ynov Campus
Le groupe YNOV CAMPUS figure dans le TOP 10 des groupes d’enseignement supérieur français. C’est le leader spécialisé dans l’enseignement des filières digitales avec plus de 12 000 étudiants. Le groupe YNOV est présent en France à travers quatorze campus physiques et un campus virtuel. Le groupe est présent en France à Aix-en-Provence, Bordeaux, Lyon, Nantes, Paris, Montpellier, Rennes, Lille, Nice, Toulouse, Rouen et Strasbourg. Bonne nouvelle, Ynov Campus dispose d’un campus au Maroc !
Introduction au métier du Data Engineering
Les débouchés (les postes que vous pourrez occuper après cette formation)
Data Engineer ayant pour missions :
– Conception et construction de l’infrastructure de données :
- Collecter et intégrer des données provenant de diverses sources (bases de données, API, fichiers, etc.).
- Concevoir et mettre en place des systèmes de stockage de données (data lakes, data warehouses).
- Développer des pipelines de données pour transformer et préparer les données pour l’analyse.
– Gestion et maintenance de l’infrastructure de données :
- Assurer la disponibilité, la fiabilité et la sécurité des données.
- Surveiller les performances des systèmes de données et optimiser leur fonctionnement.
- Résoudre les problèmes liés aux données et aux systèmes. – Collaboration avec les équipes métiers et Data Scientists :
- Comprendre les besoins en données des différentes équipes.
- Fournir les données nécessaires pour l’analyse et la prise de décision.
- Travailler en étroite collaboration avec les Data Scientists pour mettre en place des modèles et des algorithmes.
Pourquoi devenir un Data Engineer ?
Face à l’essor massif des données produites par les entreprises, le métier de Data Engineer s’impose aujourd’hui comme l’un des plus prisés dans le secteur du numérique.
Les professionnels de ce secteur bénéficient de nombreuses opportunités et d’une reconnaissance croissante, notamment grâce à leur rôle clé dans les projets de transformation digitale. Voici les raisons majeures pour choisir cette carrière :
- Un secteur en pleine expansion : Les entreprises, quel que soit leur domaine, dépendent de plus en plus des données pour optimiser leurs opérations et leur prise de décision stratégique.
- Évolution rapide : Le métier permet une montée en compétence continue, notamment grâce aux nouvelles technologies comme l’intelligence artificielle et le Big Data.
- Polyvalence des missions : Travailler en tant que Data Engineer permet de toucher à différents aspects techniques, comme les bases de données, les flux de données temps réel, ou encore l’intégration Cloud.
- Impact stratégique : Ce métier permet d’avoir un impact direct sur les décisions et la performance des entreprises.
En résumé, devenir Data Engineer, c’est non seulement intégrer un domaine d’avenir, mais aussi jouer un rôle central dans les initiatives numériques des entreprises.
Compétences : ce que vous allez apprendre
A L’issue de la formation, les participants seront capables de :
- Concevoir, développer et maintenir des pipelines de données robustes et évolutifs.
- Intégrer, transformer et organiser des données issues de diverses sources.
- Travailler avec des systèmes de gestion de bases de données relationnelles (SQL) et non relationnelles (NoSQL).
- Collaborer avec les équipes Data Science pour optimiser les modèles analytiques et de machine learning.
- Mettre en place et gérer des infrastructures Big Data sur le Cloud (AWS, Azure, GCP).
- Superviser le traitement en temps réel des flux de données via des outils tels que Spark Streaming ou Apache NiFi.
- S’assurer de la qualité, de la sécurité et de la gouvernance des données.
Programme de la formation
Bloc 1 : Programmation en langage Python
- Syntaxe de base, structures de contrôle, fonctions, modules
- Manipulation de données avec NumPy et Pandas
- Visualisation avec Matplotlib et Seaborn
Bloc 2 : Bases de Données
- Description des différents modèles de SGBD et de leurs fonctionnalités
- BD relationnelles :
- Modèle relationnel, normalisation
- Langage SQL : Requêtes CRUD, Jointures, agrégats, sous-requêtes
- Création et gestion de bases de données
- BD non relationnelles :
– Manipulation des documents d’une BD
– Installation et administration d’une BD MongoDB
Bloc 3 : Gestion de projet agile
- Versioning et collaboration :
- Versioning du code avec Git
- Création et gestion d’un dépôt distant GitLab
- Utilisation des branches avec Git pour travailler en équipe
- Gestion de projet :
- Méthodologie Agile : SCRUM
- Organisation de sprints
- Définition des priorités des tâches
- Animation et organisation des points de suivi
- Outil de ticketing et de gestion de projet JIRA
Bloc 4 : Statistiques et probabilités
- Statistiques descriptives :
- Mesures de tendance centrale et de dispersion
- Visualisation de données
- Probabilités :
- Distributions de probabilité,
- Tests d’hypothèses
Bloc 5 : Machine Learning
- Introduction au Machine Learning
- Apprentissage supervisé :
- Régression linéaire, régression logistique
- Arbres de décision, forêts aléatoires
- Apprentissage non supervisé :
- Clustering, réduction de dimensionnalité
- Implémentation de modèles avec les bibliothèques Python
Bloc 6 : Introduction au Big Data
- Introduction générale
- Modèle de programmation MapReduce
Bloc 7 : Ecosystème Hadoop
- Comprendre les architectures Hadoop
- Installation de Hadoop
- Les composants de Hadoop : HDFS, Oozie, Yarn, Hive
Bloc 8 : Data processing
- Introduction et architecture de Spark
- Spark RDD
- Spark SQL
Bloc 9 : Flow management
- Apache NIFI – Introduction
- Apache NIFI – Installation
- Apache NIFI – Concepts avancées
Bloc 10 : Stream processing
- Architecture Temps réel
- Spark Streaming
Bloc 11 : Ingénierie des données
- ETL: Outils ETL (Airflow, Luigi), Transformation de données
- Pipelines de données : Conception et implémentation de pipelines
Bloc 12: Data On the Cloud & DataOps
- Concepts clés du Cloud Computing, Services
- Architecture d’un projet Big Data sur le Cloud
- Introduction aux opérations de données
- AWS : S3, EMR, Redshift
- GCP : BigQuery, Dataflow
- Azure : Data Lake Storage, Databricks
Bloc 13 : Soft Skills
- Développement personnel / Team building
- Techniques de travail en groupe
- Rédaction de CV
- Techniques d’entretien d’embauche
- Optimisation du profil LinkedIn
- Débats en anglais
Projet Fédérateur :
Mise en place d’un projet regroupant tous les concepts abordés au niveau de la formation.
- Learning by doing
- Soft Skills
- Formation Mode Projet
- Formation 100% en présentiel
- Formation gratuite
- Séminaire d’intégration,
- Cours interactifs,
- Ateliers pratiques et jeux de rôle,
- Projets,
- Encadrement personnalisé.
Modalités de candidature :
- Inscription en ligne sur le site www.jobintech.academy/candidature et postuler à la formation
–Critères de sélection : Sélection sur dossier / test écrit (QCM) sur plateforme dédiée / test oral.

