Profil professionnel
Vue d'ensemble
Expérience
Formation
Compétences
Langues
Chronologie
Saïdou BÂ

Saïdou BÂ

DATA ENGINEER

Profil professionnel

Ingénieur Data passionné par la valorisation et la scalabilité de la donnée, j’ai mené avec succès des projets d’intégration et de migration cloud (GCP, BigQuery, AWS) pour des acteurs majeurs du retail et du marketing. Mon expertise couvre toute la chaîne data, de la conception des pipelines à la modélisation analytique pour transformer la donnée brute en levier de performance et d’innovation.

Vue d'ensemble

19
19
years of professional experience
2006
2006
years of post-secondary education

Expérience

Data pipeline & BI

CORA - CARREFOUR (Centrale d'achat)
02.2023 - 09.2025
  • Pilotage de la conception et de l’industrialisation de pipelines de données pour la collecte, l’intégration et la fiabilisation des données magasins et référentiels stratégiques (produits, fournisseurs), répondant aux besoins métiers en pilotage et contrôle de gestion.
  • Développement d’indicateurs clés de performance et automatisation des reportings de rentabilité et de suivi contractuel sous QlikView, améliorant la réactivité décisionnelle et l’efficacité des négociations fournisseurs.
  • Encadrement technico-fonctionnel : gestion opérationnelle des flux de la centrale d’achat, rédaction de documentation, optimisation des processus, migration de Stambia vers Semarchy xDI, et support à la production jusqu’à l’industrialisation.
  • Archivage légal automatisé des données comptables et commerciales dans le cloud (GCP, Spark, BigQuery), garantissant la conformité réglementaire et la sécurisation des audits.
  • Animation de sessions de veille technologique, de formation et de montée en compétences des utilisateurs, favorisant l’adoption de solutions data innovantes au sein des équipes.

    Environnements techniques : Stambia V20, Semarchy xDI, Oracle 19G, SQL Server, AS400 DB2, QlikView, GCP, Spark, BigQuery, Git, SVN

Data / Solution Engineer

EASYENCE (Éditeur SaaS – CDP, Attribution, e-Merchandising)
04.2019 - 01.2023
  • Déploiement de solutions data marketing (CDP, Attribution, e-Merchandising).
  • Migration Redshift vers BigQuery, création de connecteurs (Facebook, Google Ads, Salesforce…).
  • Animation d’ateliers de cadrage (tracking, flux entrants/sortants).
  • Refonte des kits de setup et mise en place du data model (taxonomie).
  • Migration des clients du tracker Google Analytics vers Easyence.


Environnements techniques :
GCP, BigQuery, AWS, Redshift, SQL, PL/SQL, PostgreSQL, MongoDB, MySQL, Airflow, Bigbrother, Google Analytics, Agile, Git

Data Pipeline

PROVERA (Centrale d'achat Cora)
06.2016 - 03.2019
  • Conception et déploiement d’un Data Hub Groupe, assurant la centralisation, la sécurisation et l’orchestration de plus de 100 flux de données issus d’applications métiers hétérogènes.
  • Pilotage et optimisation des flux référentiels d’achats : gestion et évolution des processus ETL, migration de Sunopsis vers Stambia, automatisation des traitements et amélioration continue des performances.
  • Rédaction des procédures de migration, définition des plans de tests de validation et accompagnement des équipes lors des phases de recette et de mise en production, garantissant la fiabilité et la traçabilité des déploiements.


Environnements techniques: Stambia V18, Oracle 11G, SQL Server, AS400 DB2, Git, SVN, ANALYTICS

Data Pipeline

SKANDIA (Assurance vie – Gestion de patrimoine)
09.2015 - 06.2016
  • Contribution au projet FATCA (Foreign Account Tax Compliance Act) pour la mise en conformité réglementaire internationale, incluant la modélisation, le développement et l’industrialisation de flux de données critiques sous ODI V10 pour le reporting fiscal franco-américain.
  • Analyse et interprétation des exigences réglementaires, conception et sécurisation des traitements de données, avec gestion des anomalies, automatisation et documentation complète des processus.
  • Livraison et exécution de recettes fiables, assurant la qualité, la conformité et la traçabilité des données transmises aux autorités, en collaboration étroite avec les équipes IT, métier et conformité.


Environnements techniques : ODI V.10, SQL, PL/SQL, ORACLE 11G, XSD/XML, Git, SVN

Data Analyste

LEASE PLAN (Location de longue durée et gestion de parc automobiles)
05.2015 - 08.2015
  • Conception, modélisation et développement d’une application QlikView dédiée à l’automatisation de l’analyse et du suivi de la qualité de service IT, améliorant la réactivité et l’efficacité des équipes support.
  • Collecte, structuration et consolidation des données sources pour bâtir un socle de données fiable et pérenne, garantissant la cohérence et la qualité des indicateurs opérationnels.
  • Définition et mise en œuvre des règles de calcul des KPI (volumes, moyennes, dynamiques), assurant un pilotage précis des performances IT.
  • Conception et paramétrage de tableaux de bord interactifs ergonomiques, facilitant l’analyse multidimensionnelle des incidents via des vues alternatives et personnalisées.
  • Intégration de fonctionnalités innovantes de “Free Analysis”, offrant un accès granulaire et flexible aux données pour les managers et analystes.
  • Industrialisation des reportings et optimisation de la restitution des informations, permettant une prise de décision plus rapide et plus éclairée.


Environnements techniques : QlikView 11, Oracle 11g, XLS

Data Pipeline

SKANDIA (Assurance vie – Gestion de patrimoine)
10.2014 - 04.2015
  • Pilotage de l’analyse, de la conception et de la modélisation des traitements de données conformes au protocole PENELOP, garantissant la normalisation et la sécurisation des échanges entre assureurs vie et intermédiaires indépendants.
  • Coordination des équipes métiers et techniques afin d’assurer l’adéquation entre besoins fonctionnels et contraintes réglementaires dans un environnement fortement normé.
  • Développement et industrialisation de flux de données sous Oracle Data Integrator (ODI V10), avec gestion avancée des erreurs pour assurer la fiabilité et la traçabilité des transmissions.
  • Rédaction des dossiers de livraison, scripts d’intégration et documentation technique détaillée, facilitant la maintenance, la supervision et les évolutions des flux.
  • Conduite des tests fonctionnels et des phases de recette, garantissant la conformité des flux aux spécifications et la qualité des échanges.
  • Exploitation de formats complexes XML/XSD pour répondre aux exigences et assurer l’interopérabilité des flux financiers.


Environnements techniques : ODI V.10, SQL, PL/SQL, ORACLE 11G, XSD/XML

Data Pipeline

CANAL MAIL – PANEL INSTITUT (Études de marché)
05.2014 - 09.2014
  • Conception de l’architecture globale et rédaction des spécifications techniques détaillées pour la migration de l’application « Email rémunérés » vers une nouvelle version, garantissant la scalabilité et la stabilité de la plateforme.
  • Interface entre les équipes métier et IT, assurant la coordination des besoins fonctionnels et des contraintes techniques pour une migration fluide et sans interruption de service.
  • Développement, test et déploiement des jobs de migration de données sous Talend Open Studio 5.4.1, garantissant la qualité, l’intégrité et la conformité des données migrées.
  • Rédaction des dossiers de livraison et préparation des scripts d’intégration, facilitant la traçabilité et la maintenance post-migration.
  • Support actif lors des phases de recette et de mise en production, assurant la correction rapide des anomalies et la stabilisation du processus.
  • Optimisation des traitements ETL, permettant de réduire les temps d’exécution et d’améliorer la fiabilité des flux dans un contexte de fort volume de données.


Environnements techniques : Talend Open Studio 5.4.1, MySQL 4, MySQL 5

Data Pipeline Consultant ODI

VEOLIA EAU ILE DE FRANCE (services collectifs)
11.2008 - 04.2014
  • Conception, industrialisation et supervision de pipelines de données critiques pour les domaines CRM, facturation et qualité de l’eau, au sein d’un Data Warehouse multi-applications (GESTOR, OPTITIME, BDQE, RCUBE, SISE-EAUX, CRECEP).
  • Orchestration des flux ELT sous ODI/Sunopsis, avec automatisation et contrôle qualité des traitements, garantissant la disponibilité, la traçabilité et la fiabilité des indicateurs métiers à grande échelle (performance, planification, eau potable).
  • Optimisation du modèle des référentiels BDQE (organisationnel, fonctionnel, analytique) afin de simplifier l’exploitation opérationnelle et accélérer la restitution décisionnelle.
  • Reprise complète des historiques applicatifs (CRECEP, BDQE), construction d’un Data Warehouse en étoile et planification avancée de l’alimentation de l’infocentre.
  • Collaboration étroite avec les équipes métier, AMOA, recette, exploitation et architecture : recueil des besoins, rédaction de spécifications, estimation des charges et support opérationnel continu.
  • Garantie de la conformité, de la sécurité et de la fiabilité des pipelines déployés dans des environnements critiques et hétérogènes.


Environnements techniques : Data Integrator, Sunopsis, MySQL, Oracle 10g/11g, HTML, JavaScript, Web Services, Toad, SQL Developer, Pépit, XML, XSD, Git, SVN

Data Pipeline

BOUYGUES-CONSTRUCTION (Leader mondial de la construction)
10.2007 - 10.2008
  • Participation clé au projet EDIFICE, piloté par IBM, visant la migration et la reprise de données critiques issues de systèmes hétérogènes vers la plateforme SAP, dans le cadre du plus grand programme du secteur du bâtiment.
  • Mise à jour et optimisation des spécifications fonctionnelles, garantissant une transition fluide et conforme aux exigences métier.
  • Développement d’interfaces de reprise de données multi-formats (Excel, TXT, CSV, XML) via des modules automatisés en Jython, assurant la qualité, l’intégrité et la cohérence des données migrées.
  • Conception et déploiement de fichiers de contrôle et de logs (.txt) pour renforcer la traçabilité et la vérification qualité des flux de reprise.
  • Encadrement technique des tests unitaires et exécution de campagnes de tests de reprise, garantissant une migration fiable, maîtrisée et conforme.
  • Maintenance évolutive et corrective des programmes ODI (Sunopsis) dédiés à la reprise de données, assurant la stabilité et la pérennité des traitements en production.


Environnements techniques : Oracle, SQL Server, ODI (Sunopsis), Excel, CSV, TXT, XML, SQL/PLSQL, Jython

Data Analyst

MINISTÈRE DE L'ÉCOLOGIE ET DU DÉVELOPPEMENT DURABLE (MEDAD)
02.2007 - 09.2007
  • Recueil et analyse approfondie des besoins fonctionnels et techniques pour la conception de solutions décisionnelles performantes et adaptées aux enjeux du ministère.
  • Rédaction de spécifications fonctionnelles détaillées en coordination avec les équipes métier, garantissant la cohérence et la pertinence des développements.
  • Collecte, transformation et structuration des données afin d’assurer la qualité, la fiabilité et la cohérence des modèles analytiques.
  • Modélisation avancée et développement de tableaux de bord QlikView interactifs et ergonomiques, facilitant le pilotage des indicateurs environnementaux et l’aide à la décision.
  • Réalisation des tests unitaires et fonctionnels pour valider la conformité technique et garantir la fiabilité des livrables.
  • Développement en mode ZFC (Zero Foot Client) intégrant Java et composants spécifiques aux environnements Internet Explorer et clients lourds, optimisant l’accessibilité des applications.
  • Collaboration agile avec les équipes métier et techniques, favorisant une livraison rapide et conforme aux objectifs stratégiques du ministère.


Environnements techniques : QlikView 8, Excel, SQL Server 2005

Développement Web et Analyse Statistique Comportem

UNEDIC (Union Nationale Interprofessionnelle pour l'Emploi dans l'Industrie et le Commerce)
06.2006 - 01.2007
  • Conception et développement de services web critiques pour le portail Assedic, incluant les modules d’inscription et d’authentification des employeurs et demandeurs d’emploi, basés sur une architecture Java J2EE évolutive et sécurisée.
  • Mise en œuvre de la solution de tracking XiTi, permettant la collecte, l’analyse et l’exploitation de données comportementales afin d’optimiser l’expérience utilisateur et les parcours en ligne.
  • Développement d’une application de gestion des non-remises d’e-mails, améliorant la qualité et la fiabilité des communications avec les usagers.
  • Production de rapports statistiques détaillés pour le Système d’Information Décisionnel (SID) de l’Unédic, contribuant à des décisions stratégiques fondées sur les données.
  • Collaboration étroite avec les équipes métier et techniques dans un environnement Agile, garantissant la cohérence fonctionnelle, la qualité et la performance des livrables.


Environnement technique : Java/J2EE, Eclipse, Rational ClearCase, Oracle 9i, JavaScript, HTML, JSP, UML, XiTi, XML, Test Director 8, WebLogic, Agile

Formation

Diplôme d'ingénieur - Machine Learning Engineer - DataScientest

Datascientest, Paris
07.2025 -

Formation - Développement avancé avec Stambia

Formation ODI - undefined

ORACLE

Master 2 Ingénierie - Mathématique d'Aide à la Décision et du Data Mining

Orléans

Master 2 Modélisation - Mathématique et Applications Informatique

Orléans

Compétences

  • Python
  • Spark
  • BigQuery
  • Redshift
  • PostgreSQL
  • MongoDB
  • Stambia
  • ODI
  • Talend
  • Data Studio
  • QlikView
  • QlikSense
  • Jira
  • Matrix
  • Mantis
  • AWS
  • GCP
  • Script QV
  • SQL/PL SQL
  • PHP
  • Java - J2EE
  • Jython
  • XPath
  • VBA
  • SQL Server
  • MYSQL
  • Oracle
  • Autonomie
  • Sens des responsabilités
  • Relation client

Langues

Français
Langue maternelle
Anglais
Intermédiaire

Chronologie

Datascientest - Diplôme d'ingénieur, Machine Learning Engineer - DataScientest
07.2025 -
Data pipeline & BI - CORA - CARREFOUR (Centrale d'achat)
02.2023 - 09.2025
Data / Solution Engineer - EASYENCE (Éditeur SaaS – CDP, Attribution, e-Merchandising)
04.2019 - 01.2023
Data Pipeline - PROVERA (Centrale d'achat Cora)
06.2016 - 03.2019
Data Pipeline - SKANDIA (Assurance vie – Gestion de patrimoine)
09.2015 - 06.2016
Data Analyste - LEASE PLAN (Location de longue durée et gestion de parc automobiles)
05.2015 - 08.2015
Data Pipeline - SKANDIA (Assurance vie – Gestion de patrimoine)
10.2014 - 04.2015
Data Pipeline - CANAL MAIL – PANEL INSTITUT (Études de marché)
05.2014 - 09.2014
Data Pipeline Consultant ODI - VEOLIA EAU ILE DE FRANCE (services collectifs)
11.2008 - 04.2014
Data Pipeline - BOUYGUES-CONSTRUCTION (Leader mondial de la construction)
10.2007 - 10.2008
Data Analyst - MINISTÈRE DE L'ÉCOLOGIE ET DU DÉVELOPPEMENT DURABLE (MEDAD)
02.2007 - 09.2007
Développement Web et Analyse Statistique Comportem - UNEDIC (Union Nationale Interprofessionnelle pour l'Emploi dans l'Industrie et le Commerce)
06.2006 - 01.2007
- Formation, Développement avancé avec Stambia
ORACLE - Formation ODI,
Orléans - Master 2 Modélisation, Mathématique et Applications Informatique
Orléans - Master 2 Ingénierie, Mathématique d'Aide à la Décision et du Data Mining
Saïdou DATA ENGINEER