Profil professionnel
Vue d'ensemble
Expérience
Formation
Compétences
Langues
Chronologie
Generic
Ayoub Ajlani

Ayoub Ajlani

Tech Lead Data Analyst
Paris

Profil professionnel

Passionné par la donnée et son exploitation à grande échelle, j’évolue en tant que Data Engineer & Data Analyst, avec une expertise approfondie en Azure, Databricks et PySpark. Fort d’une double compétence en ingénierie et analyse des données, j’accompagne les entreprises dans la modélisation, l’industrialisation et la fiabilisation de leurs pipelines de données, tout en assurant une exploitation analytique optimale pour les métiers. Mon parcours m’a permis de travailler sur des projets stratégiques de migration cloud, de reporting BI et de Machine Learning/NLP, avec un focus sur l’automatisation et la qualité des données Doté d’une forte capacité d’adaptation et d’un esprit collaboratif, j’interviens aussi bien sur la conception d’architectures Data, la gestion des anomalies métiers, que sur le développement de modèles prédictifs et explicables. 🚀

Vue d'ensemble

4
4
years of professional experience
3
3
years of post-secondary education

Expérience

Lead Data Analyst / Engineer

AXA
Paris
07.2022 - Actuel

J’ai travaillé en tant que Data Analyst & Data Engineer sur plusieurs projets stratégiques chez AXA , en utilisant PySpark, Databricks et Azure pour traiter et analyser des grands volumes de données contractuelles et financières. Mes responsabilités ont couvert à la fois l’architecture des données, l’ingestion, la transformation et l’analyse métier.


🔹 1er Projet – AGIPI & AWS : Analyse des Anomalies Métier sur les Contrats

💡 Projet terminé – suivi et analyse des anomalies métier

Surveillance et analyse des anomalies métiers sur les adhésions de contrats et les actions.

• Vérification de la qualité des données et détection des anomalies lorsque des fichiers sont manquants ou incomplets dans le Data Lake.

Diagnostic et correction des erreurs (tables vides, non affichées, incohérences dans les calculs).

• Calcul des collectes pour les différents produits financiers et d’assurance.

• Collaboration avec les équipes métiers pour comprendre et résoudre les problèmes impactant les analyses.

Ajout de nouvelles colonnes et modification des modèles de données pour s’adapter aux évolutions des besoins.

Impact :

👉 Amélioration de la qualité et de la fiabilité des données pour les analyses financières.

👉 Réduction des anomalies dans les rapports métiers et meilleure prise de décision.


🔹 2e Projet – Migration des Données Immobilières de Drouot Estate vers le Cloud

💡 Migration des données pour reporting Power BI – Architecture et ingestion des données

👥 Équipe : 2 personnes

• Moi : Data Analyst/Data Engineer

• Un collègue : PO/Data Analyst Power BI

📌 Objectif : Migrer l’ensemble des données immobilières de Drouot Estate vers le Cloud Azure pour permettre des reportings Power BI sur différents axes d’analyse.

🚀 Mon rôle sur le projet :

1. Architecture des données & Modèle Physique

• Conception de l’architecture de données et du modèle physique dans Azure Data Lake.

• Définition des contrats d’interface pour l’échange des données avec les systèmes sources.

2. Ingestion des Données & Transformation

• Collaboration avec l’équipe ops pour assurer la réception des fichiers dans le Data Lake.

• Accompagner l'équipe BigData pour la mise en place des points de montage pour le DataLab afin de permettre l'accès aux données.

• Développement du reader PySpark pour automatisation le read des données Drouot Estate.

3. Nettoyage, Croisement & Modélisation

• Nettoyage et structuration des données, création des tables de détails, tables de faits et tables de dimensions.

Croisement des données immobilières avec d’autres sources pour reconstruire la pyramide commerciale.

4. Mise à disposition et Recette

• Exposition des tables aux développeurs Power BI pour la création des dashboards.

Recette avec le métier pour s’assurer de la cohérence des chiffres.

Accompagnement d’un junior Data Engineer pour la mise en production.

Impact :

👉 Architecture Cloud scalable pour les analyses immobilières.

👉 Automatisation complète de la collecte et de la transformation des données.

👉 Meilleure visibilité pour le métier grâce aux reportings Power BI optimisés.


🔹 3e Projet – AWM (AXA Wealth Management)

💡 Développement et suivi des données contrats stock et flux

🚀 Mon rôle sur le projet :

Rédaction des spécifications fonctionnelles et techniques en collaboration avec les métiers.

Conception du modèle de données en définissant les relations entre contrats stock, flux et historiques.

Développement des tables de contrats avec PySpark et Databricks.

Recette avec le métier et analyse des écarts de chiffres pour garantir l’exactitude des données.

Mise en place de l’historisation des données pour suivre l’évolution des stocks et flux sur le long terme.

Impact :

👉 Fiabilisation des données financières liées aux contrats et flux.

👉 Meilleure traçabilité des évolutions contractuelles grâce à l’historisation.

👉 Intégration et alignement avec les autres sources métiers pour garantir la cohérence globale.


🛠 Environnement Technique

Big Data & Cloud : PySpark, Databricks, Azure Data Lake, Azure Data Factory

Bases de données : SQL, Delta Lake

BI & Reporting : Power BI

Outils collaboratifs : Jira, Confluence, Git




Tech Lead Data Scientist

Groupe Renault
Guyancourt
03.2021 - 06.2022

En tant que Tech Lead Data Scientist, j’ai dirigé la conception et l’implémentation d’un modèle de traitement du langage naturel (NLP) destiné à améliorer la compréhension des données textuelles pour le développement des véhicules autonomes. Mon rôle a couvert l’ensemble du cycle de vie de la donnée, depuis la collecte et le prétraitement jusqu’à la modélisation, l’explicabilité et le déploiement en production.

🔹 Collecte et Prétraitement des Données

Transformation et nettoyage des données avec PySpark pour gérer des volumes massifs de texte provenant des capteurs et logs des véhicules autonomes.

Élimination des valeurs manquantes et aberrantes, tokenization, lemmatisation et normalisation linguistique avec NLTK.

Standardisation et vectorisation du texte pour rendre les données exploitables par les algorithmes de Machine Learning et Deep Learning.

🔹 Analyse Exploratoire et Visualisation

• Réalisation d’une analyse exploratoire approfondie (EDA) pour identifier les tendances, corrélations et schémas dans les données textuelles.

• Détection et analyse des mots-clés récurrents, relations entre entités et anomalies textuelles influençant la prise de décision du modèle.

🔹 Développement et Optimisation des Modèles de NLP

• Implémentation de modèles de classification de textes avancés basés sur BERT (Bidirectional Encoder Representations from Transformers) pour améliorer la compréhension des logs véhicules.

• Intégration d’algorithmes d’explicabilité (LIME, SHAP) pour comprendre et interpréter les décisions du modèle.

• Comparaison des performances entre BERT, LSTM et modèles traditionnels (TF-IDF + SVM, Random Forest, etc.) afin d’optimiser la précision et le rappel.

🔹 Gestion de Projet et Encadrement de l’Équipe

Encadrement technique de l’équipe Data Science et coordination avec les ingénieurs en IA et logiciels embarqués.

Priorisation des tâches et gestion du backlog en collaboration avec le Product Owner via Jira et Confluence.

• Participation aux ateliers Agile et sprints pour aligner les développements avec les exigences des clients et des équipes métiers.

• Animation de revues de code pour améliorer la qualité et la robustesse des solutions développées.

Évangélisation de la data science auprès des équipes métiers et techniques pour promouvoir l’utilisation de modèles NLP dans d’autres cas d’usage.

🛠 Environnement Technique

Langages & Frameworks : Python (Sklearn, TensorFlow, Numpy, Pandas, Matplotlib, NLTK)

Big Data & Cloud : PySpark, Azure, Databricks

Machine Learning & NLP : BERT, SVM, LIME,

CI/CD & DevOps : MLflow, Azure DevOps

Outils Collaboratifs : Jira, Confluence, Git

Data Scientist – Migration & Prévision de la Conso

Groupe Renault
Guyancourt, France
08.2018 - 10.2020

Après un premier projet réussi en tant que stagiaire Data Scientist, j’ai été promu Chef de projet et Data Scientist pour piloter la migration des données énergétiques de chaque usine vers le cloud et l’application d’un modèle de prévision permettant d’optimiser la consommation énergétique à l’échelle du groupe.


🔹 Migration des Données Énergétiques vers le Cloud

• Conception et implémentation d’une pipeline d’ingestion des données énergétiques des usines sous Databricks et PySpark, permettant d’intégrer des données provenant de plusieurs sources hétérogènes ( Bases SQL, fichiers plats, etc.).

• Migration des données historiques de consommation énergétique vers Azure Data Lake garantissant un stockage optimisé et interprétable avec les outils métiers.

Normalisation et transformation des données pour assurer une qualité optimale et une facilité d’utilisation pour les analyses et prévisions.

• Mise en place d’un unité de rattrapage (batch historique) afin de reconstruire et historiser l’ensemble des consommations passées, permettant ainsi une analyse complète sur plusieurs années.

• Développement de tables analytiques centralisées, exposées aux équipes métier pour des cas d’usage en reporting, audit énergétique et optimisation des coûts.

Impact migration cloud :

👉 Automatisation complète du pipeline d’ingestion, réduisant le temps de traitement des données de plusieurs heures à quelques minutes.

👉 Unification et historisation des données énergétiques, permettant aux équipes métier d’accéder à une source unique de vérité.

👉 Standardisation des données facilitant leur exploitation pour les analyses avancées et la prise de décision.


🔹 Développement et Mise en Production du Modèle de Prévision Énergétique

• Développement de modèles avancés de séries temporelles (ARIMA, Prophet, LSTM, XGBoost) pour prédire la consommation énergétique des usines.

Intégration des variables exogènes (température, humidité, calendrier de production, maintenance, jours fériés) afin d’augmenter la précision des prévisions.

Déploiement et automatisation du modèle dans un pipeline cloud Databricks, permettant une mise à jour dynamique des prévisions en fonction des nouvelles données collectées.

• Création d’un moteur de détection des écarts entre prévisions et consommation réelle pour identifier les anomalies et les dérives énergétiques.

• Intégration des résultats et prévisions dans Power BI pour un suivi en temps réel par les équipes métier.

Impact Data Science :

👉 Précision des prévisions améliorée , permettant une meilleure anticipation et gestion des coûts énergétiques.

👉 Détection automatique des anomalies de consommation, facilitant l’optimisation et la maintenance proactive.

👉 Modèle opérationnel sur toutes les usines de Renault, offrant une vision centralisée et prédictive de la consommation énergétique.

Data Scientist/Analyst des données énergétiques

Groupe Renault
Guyancourt, France
02.2018 - 07.2018
  • Conception et implémentation de modèles de prévision de la consommation énergétique en utilisant des techniques avancées de régression et de séries temporelles
  • Analyse des données historiques pour identifier les relations complexes entre la consommation d'énergie, les variables météorologiques et le volume de production
  • Optimisation des algorithmes de prédiction pour une précision maximale
  • Réalisation d'analyses statistiques approfondies, notamment des tests d'hypothèses, des analyses de variance et des régressions multiples, pour déterminer les facteurs significatifs qui influent sur la consommation énergétique
  • Création de visualisations complexes et interactives pour présenter les résultats de manière claire et informative aux parties prenantes
  • Recommandation et mise en œuvre de mesures d'optimisation de la consommation d'énergie
  • Développement de scripts et d'outils automatisés pour générer des rapports réguliers sur la consommation d'énergie, permettant ainsi une prise de décision rapide et éclairée
  • Environnement technique :
  • Python, Power BI, Databricks Pyspark,DBFS

Formation

Master 2 - Data Scientist

M2I - Akkodis
Paris
/2018 -

Diplôme d'ingénieur - Génie Mathématique Appliquée et Modélisation / Mécanique

Ecole Polytechnique De Lyon 1
Lyon
09.2015 - 07.2018

Mathématique Physique

Institut Préparatoire Aux Études D'ingénieurs
Tunis
/2013 - /2015

Compétences

    📌 Data Engineering & Big Data:

    ✅ Traitement et transformation de données massives avec PySpark & SQL

    ✅ Conception et modélisation des bases de données : Modèles physiques, Modèles conceptuels et Modèles de données

    ✅ Mise en place et gestion des Data Lakes (Azure Data Lake, Delta Lake)

    ✅ Automatisation et industrialisation des flux de données


    📌 Data Analysis & Business Intelligence:

    ✅ Analyse des anomalies métiers et correction des incohérences dans les données financières et immobilières

    ✅ Calculs de collecte, contrôle et validation des données pour la fiabilité des reportings

    ✅ Exploration et croisement de données pour reconstruire des pyramides commerciales et financières

    ✅ Développement et optimisation des tables pour Power BI (Faits, Dimensions, Détails)

    ✅ Création de dashboards interactifs et suivi des indicateurs de performance


    📌 Machine Learning & NLP:

    ✅ Développement de modèles de Machine Learning et NLP avec TensorFlow, Scikit-learn

    ✅ Traitement et classification de texte avec BERT et LSTM pour la détection d’anomalies sur les logs véhicules

    ✅ Explicabilité des modèles IA avec SHAP & LIME

    ✅ Mise en production des modèles avec MLflow et Azure DevOps


    📌 Cloud & DevOps:

    ✅ Déploiement de solutions Big Data sur le Cloud (Azure, AWS)

    ✅ Gestion des versions et collaboration avec Git, Jira, Confluence


    📌 Gestion de Projet & Méthodologie Agile:

    ✅ Encadrement et accompagnement de Data Engineers juniors

    ✅ Collaboration avec les équipes métier pour comprendre et définir les besoins

    ✅ Rédaction des spécifications techniques et fonctionnelles

    ✅ Participation aux ateliers métiers et validation des modèles de données

    ✅ Suivi de projet en Agile (Kanban) avec Jira

Langues

Anglais
Courant

Chronologie

Lead Data Analyst / Engineer

AXA
07.2022 - Actuel

Tech Lead Data Scientist

Groupe Renault
03.2021 - 06.2022

Data Scientist – Migration & Prévision de la Conso

Groupe Renault
08.2018 - 10.2020

Data Scientist/Analyst des données énergétiques

Groupe Renault
02.2018 - 07.2018

Diplôme d'ingénieur - Génie Mathématique Appliquée et Modélisation / Mécanique

Ecole Polytechnique De Lyon 1
09.2015 - 07.2018

Master 2 - Data Scientist

M2I - Akkodis
/2018 -

Mathématique Physique

Institut Préparatoire Aux Études D'ingénieurs
/2013 - /2015
Ayoub AjlaniTech Lead Data Analyst