Dans le cadre de la migration du produit GDTA dont l' objectif est de fournir aux utilisateurs (ingénieurs DBA) un catalogue d’ APIs qui leurs permettent de gérer l' ensemble des base de données de productions qu’utilisent les différentes entités de la société générale en terme de référencement ou bien décommissionnement ainsi que leurs différentes caractéristiques techniques(service, utilisateurs, hosts, applications)
La migration consiste à changer le type de base de donnée sur lequel se base le nouveau produit GDAT, le changer à partir sybase vers pgsql
Rôles:
1. Développement CRUD APIs REST du produit GDAT
2. Ajout de tests unitaire
3. Review de code et validation de pull request
4. Migration de données à partir de l’ancien GDAT (Sybase) vers le nouveau GDAT(Pgsql)
Environnement technique :
API REST en Python 3(Flask connexion), Pycharm, linux(redhat), windows 10, Jira
Migration de données à partir de l'ancien GDAT (Sybase) vers le nouveau GDAT(Pgsql)
Contexte Fonctionnel: Dans le cadre de la migration du produit GDTA dont l'objectif est de fournir aux utilisateurs (ingénieurs DBA) un catalogue d'APIs qui leurs permettent de gérer l'ensemble des base de données de productions.
Environnement technique: API REST en Python 3(Flask connexion), Pycharm, linux(redhat), windows 10, Jira, Sqlalchemy, Git, Docker, Kubernetes, Jenkins, PGadmin, sybase, Méthodologie: AGILE
Développement et industrialisation de playbook Ansible / Terraform et scripts Python dans un contexte Cloud.
Développement from scratch du web service exposé via un swagger contenant les différentes APIs REST.
Définition et design sous forme d'un data model du référentiel delphix via des base de données oracle.
Utilisation des services docker pour faciliter les déploiement sous forme d'image docker de la plate-forme web services.
Contexte Fonctionnel: Dans le cadre du développement du produit Delphix, l'objectif est l'intégration rapide et livraison rapide du produit dans le cloud IBM dMZR.
Environnement technique: API REST en Python 3(Flask connexion), Pycharm, linux(redhat), windows 10, Jira, Sqlalchemy, Git, Docker, Kubernetes, Jenkins, PGadmin, Oracle, ansible, terraform, Méthodologie: AGILE
Dans le cadre du développement du produit Delphix (Delphix est leader de la virtualisation et de l’anonymisation des données. Dans une économie numérique où chaque entreprise est amenée à gérer des données (« Every Company is a Data Company »), Delphix offre à ses clients la capacité d’accélérer le développement applicatif, de sécuriser les données sensibles et de faciliter les migrations vers le Cloud en éliminant les contraintes liées à la gestion des données) identifié comme livrable prioritaire dans la roadmap du CCC, l’objectif est l’intégration rapide et livraison rapide du produit dans le cloud IBM dMZR
Mission:
Développement et industrialisation de playbook Ansible / Terraform et scripts Python dans un contexte Cloud avec mise en place d’une plateforme de Web services à fin de l’intégrer dans le CCC pour qu’elle soit exploitable par la marketplace
Rôles:
Développement from scratch du web service exposé via un swagger contenant les différentes APIs REST utilisées entre autre soit pour exploiter les différents service fournit par le produit Delphix et aussi pour enregistrer les différents objets Delphix dans le référentiel delphix(data model)
Définition et design sous forme d un data model du référentiel delphix via des base de données oracle
Design et architecture de la stack technique du web service.
Développement CRUD APIs REST du web service via le swagger.
Utilisation des services docker pour faciliter les déploiement sous forme d' image docker de la plate-forme web services.
Intégration des engine dephix sous forme d' images docker dans des COS IBM .
Interaction avec le PO pour définir les priorité des différentes tâches et aussi pour détailler les différentes story
Gestion des différents credentials utilisés par la plate-forme web service via les services cyberark.
Participation dans l' Implémentation de la chaîne CI/CD .
Environnement technique :
API REST en Python 3(Flask connexion), Pycharm, linux(redhat), windows 10, Jira
Développement et industrialisation de playbook Ansible et scripts Python dans un contexte Cloud.
Développement du produit LUCID (From scratch) à partir de sa phase P.O.C (Proof Of Concept) jusqu'à sa mise en production.
Développement d'APIs qui permettent de créer des répertoires sur le cluster hadoop.
Développement d'APIs en langage python hébergées sur kubernetes.
Contexte Fonctionnel: Le projet LUCID a deux objectifs : Mettre à la disposition de l'ensemble de la société générale un cluster big data mutualisé et un catalogue d'APIs entièrement automatisé.
Environnement technique: API REST en Python 3(Django, Flask connexion, Flask-RESTPlus's), Pycharm, redhat, windows 10, Jira, Kibana, sqlalchemy, Git, Docker, Kubernetes, Jenkins, Airflow, Ansible, AWX, Cloud privé, Terraform, react(JavaScript), Méthodologie: AGILE
Développement et industrialisation de playbook Ansible et scripts Python dans un contexte Cloud avec mise en place d’une plateforme de Web services
Projet 2 LUCID: Depuis Mars 2020
Le projet LUCID (Large Unified Cluster Integration Data) a deux objectifs :
1- Mettre à la disposition de l’ensemble de la société générale un cluster big data mutualisé .
2- Mettre à disposition des développeurs un catalogue d’APIs entièrement automatisés qui va leur permettre de créer des ressources(Hive, Kafka, Hdfs, Yarn) sur ce cluster en quelques minutes.
J’ai développé le produit LUCID (From scratch) à partir de sa phase P.O.C (Proof Of Concept) Jusqu’à sa mise en production et industrialisation pour ensuite le maintenir et le faire évoluer du coup J' ai développé dans un premier temps des APIs qui permettent de créer des répertoires sur le cluster hadoop dans du deuxième temps des Apis qui permettent de créer des bases de données hive puis des topics kafka, j ai développé des APIs en langage python elles étaient hébergées sur kubernetes, ces Apis sont asynchrones elles font appel à un orchestrateur qui est apache airflow et pour exécuter des commandes sur le cluster big data l'orchestrateur airflow faisait appel à des playbook ansibles.
Projet 1 BAAS: Depuis Septembre 2019
Objectif : Fournir aux développeurs un cluster big data en quelques minutes pour démarrer des projets de migration ou bien faire des POCs ou tester des nouvelles versions sur ces clusters.
J’ai fais du développement évolutive et corrective d’APIs de l’outil BASS(Big Data As Service) dont l’objectif est d’offrir la possibilité aux utilisateurs dont le coeur du métier est le big data de provisionner/gérer/commissioner des clusters virtuels (Cloud privé) hadoop de distribution Hortonworks et Cloudera en quelques minutes à la place de quelques semaines et de leur offrir aussi la possibilité d’ajouter/supprimer des users unix et aussi installer les services HUE dans un cluster
Mission principale:
Développement de nouvelles features sur le swagger.
Gestion et suivi des incidents remonté par les utilisateurs
Faire des MEP (Mise En Production)
Revue de code.
Industrialisation du micro service de création d’outils big data basé sur du airflow pour le compte du produit LUCID
Amélioration des process CI/CD en automatisant les différents déploiements sur les différents control plane (DEV/UAT/PROD)
Assurance du support et résolution d'incidents
Contribuation à la documentation fonctionnelle et technique
Faire des présentations aux clients à chaque fin de sprint(présentation de nouvelles fonctionnalités)
Aider le PO (Product Owner) à faire des User Story.
Contexte technique:
API REST en Python 3(Django, Flask connexion, Flask-RESTPlus’s), Pycharm, redhat, windows 10, Jira, Kibana, sqlalchemy, Git, Docker, Kubernetes, Jenkins, Airflow, Ansible, AWX, Cloud privé, Terraform, react(JavaScript)
Méthodologie: AGILE
Architecture: Micro service
Consultant Développeur Python (Back end)
SEWAN
Paris, 10ème
03.2018 - 08.2019
Implémentation de correctifs sur des incidents remontés par les utilisateurs.
Ajout de nouvelles fonctionnalités sur le SI.
Analyse des tickets remontés par les équipes du support.
Supervision des déploiements que ce soit au niveau production ou bien test.
Contexte Fonctionnel: Sophia est une plate-forme Cloud développée et hébergée par Sewan permettant l'accès à tous les services du catalogue Sewan.
Contexte technique: API REST en Python 3(Django, Flask), Pycharm, linux, windows 7, redmine(Outil de ticketing), Kibana, sqlalchemy, Git, Docker, Kubernetes, Jenkins
Consultant Développeur Python (Back end)
SEWAN
Paris
03.2018 - 08.2019
Sophia est une plate-forme Cloud développée et hébergée par Sewan permettant l’accès à tous les services (tel mobile, fixe, Hébergement) du catalogue Sewan avec deux modes de ventes : en direct auprès des entreprises ou via des partenariats. Ses fonctionnalités sont disponibles via son interface ou ses nombreuses API et offrent un accès temps réel complètement automatisé aux offres Sewan, Toute l’activité est intégrée au sein d’un gros SI qui permet aux clients (centaine de milliers par jour) d’avoir accès aux services.
Mission principale:
Implémentation de correctifs sur des incidents remontés par les utilisateurs.
Ajout de nouvelles fonctionnalités sur le SI.
Analyse des tickets remontés par les équipes du support.
Gestion des incidents.
Supervision des déploiements que ce soit au niveau production ou bien test.
Implémentation de script de test d’intégration et unitaire en utilisant les mocks .
Code review, refactoring the code, pair programming.
Validation de tickets incidents.
Amélioration des process CI/CD en automatisant les différents déploiements
Rédaction et mise à jour des documentations.
Fournir des estimations de charge et de délais.
Implémentation de l’architecture du micro service d’authentification et de génération de tokens
Contexte technique :
API REST en Python 3(Django, Flask connexion), Pycharm, redhat, windows 10, Jira, Kibana, sql, Git, Docker, Docker, Kubernetes, Jenkins
Consultant Développeur Python (Back end)
Nokia
Nozay
05.2017 - 02.2018
Développement intégral (from scratch) d'un outil ZTC CLOUD sous forme d'une plateforme permettant de réserver, orchestrer, monitorer, reporter et analyser des tests sur simulateurs.
Implémentation de l'architecture d'un micro service permettant de communiquer directement avec les équipements 5G.
Développement intégral ( from scratch) d’un outil ZTC CLOUD sous forme d’une plateforme permettant de réserver, orchestrer, monitorer, reporter et analyser des tests sur simulateurs pour des éléments unitaires ou de bout en bout. La plateforme offre une interface web développée en Python, dont l’aspect user friendly a été particulièrement étudié, cet outil permet aux utilisateurs (testeurs et validateurs de Nokia) de faire des déploiements d’OS et aussi des softwares sur des équipements d'accès 5G qui sont soit physiques ou virtuels.
Mission principale:
Implémentation de l’architecture d’un micro service permettant de communiquer directement avec les équipements 5G.
Automatisation de déploiements de Tests Lines.
Implémentation de tests unitaire.
Conception et implémentation d’APIs pour les Airphones(équipement physique d'accès 5G).
Implémentation de tests unitaires pour les différentes APIs réalisées.
Réalisation de End-to-End tests dans le but d’effectuer de l'intégration en zone production.
Upgrade des différents serveurs sur lequel l’outil(ZTC CLOUD) est déployé (serveur de production, serveur de développement).
Suivie des différents déploiements effectués par les utilisateurs de l’outil.
Support pour le compte des utilisateurs
Traitements des différents bugs rapportés par les utilisateurs.
Création et traitement de tickets Jira.
Intégration de hardware sur velocity.
Gestion de différentes ressources matérielles et virtuelles allouées aux différents déploiements effectué par les utilisateurs.
Gestion des ressources virtuelles au niveau du Titanium.
Factorisation de code pour rapporter plus de robustesse.
Application de commissioning sur les différents déploiements réalisés.
Gestion des ressources matérielles via l’outil Velocity.
Réalisation de la documentation.
Analyse de différents logs côté serveurs et correction des remontées d’anomalies.
Gestion de différents daemons.
Intervention au niveau du serveur de prod pour mise à jour de différentes fonctionnalités.
Intervention au niveau de l’outil Titanium pour gérer les différente ressources virtuelles.
Code review et refactoring.
Amélioration des process CI/CD en automatisant les différents déploiements
Présentation de l'entreprise: OUTSCALE (Saint Cloud) : Outscale est une société française spécialisée dans le cloud computing, la mission s’est effectuée au sein de l'équipe QA (quality assessment).
Participation à l’automatisation des Tests techniques des logiciels Outscale, AWS, IaaS
Mission principale :
Développement et implémentation de frameworks de tests de différentes API, correspondants aux différents produits Outscale.
Spécifications et exécutions des différents scénarios de tests sur les différentes API des produits outscale.
Implémentations de différents scripts de tests sur les différents composant de l’infrastructure cloud de Outscale
Lancement et déploiement de différents tests sur jenkins.
Présentation de l'entreprise: KOSC TELECOM est une start up dont le secteur de métier est le réseau télécoms à destination des opérateurs d'entreprise.
Participation à la mise en place de l'architecture du système d'information (Projet from scratch).
Mise en place de l'API sur les parties frontend(html, css, javascript) et backend(python) dédiées aux diagnostics de matériels réseaux à distance.
KOSC TELECOM est une start up dont le secteur de métier est le réseau télécoms à destination des opérateurs d'entreprise.
Présentation de l'entreprise: Groupe de réassurance.
Développement d'un système d'information à temps réel Omega 2 par le développement et l'ajout de nouvelles fonctionnalités.
Développement d'outils de désérialisation de fichiers binaires.
Gestion des incidents.
Tests d'intégration.
Groupe de réassurance.
Contexte technique: Python, SHELL(ksh), C++, C, Sybase ASE15, Transact SQL, SVN, RapidSQL, dbaTools, Linux(Redhat), SPIRA(Outil de suivi des incidents), MICROSOFT WINDOWS 7, MICROSOFT EXCHANGE - OUTLOOK.
Développeur Python et intégrateur applicatif
SCOR IT (Groupe de réassurance)
La Défense
02.2014 - 04.2016
Développement d’un système d’information à temps réel Omega 2 par le développement et l’ajout de nouvelles fonctionnalités.
Développement d’outils de désérialisation de fichiers binaires.
Batch de calcul et de synchronisation.
Développement et optimisation et livraisons de programmes et de scripts.
Analyse ,traitement de bugs remontés.
Implémentation et déploiement de correctifs.
Gestion des incidents.
Tests d’intégration.
Supervision des différents serveurs (Production,Maintenance,Test(UAT) et Intégration) via le VTOM.
Développement ,Optimisation et tests et livraisons de scripts SQL via dbatools.
Mise à disposition et mise à jour de la documentation utilisateur .
Rédaction de documentations techniques et de spécifications fonctionnelles.
Amélioration des environnements Linux.
Support des équipes de production applicatif à la gestion d'incidents.
Support aux BU (Buisness Users de SCOR IT).
Intégration applicatifs sur des environnements existants.
Développement de scripts d’exploitation .
Participation aux mises en production.
Test sur la recette.
Contexte Fonctionnel :
Cycle de vie d’un contrat de réassurance (Réassurance vie): Traités d’acceptation et de rétrocession ,traitement comptable et inventaire vie,Back office,backtesting.
Contexte technique: Python, SHELL(ksh) , C++, C, Python, Sybase ASE15, Transact SQL, SVN, RapidSQL , dbaTools, Linux(Redhat), SPIRA(Outil de suivi des incidents), MICROSOFT WINDOWS 7 , MICROSOFT EXCHANGE - OUTLOOK.