
CV informaticien n°230131F003
Profil :
Chef de projet, Architecte - né(e) en 1970
Mobilité :
Toutes les régions
Compétences techniques
Expert
Senior
Junior
Notions
DATA

BIG DATA

Etudes et formations
SYNTHESE DES COMPETENCES FONCTIONNELLES
Cadrage des besoins des metiers
Redaction les specifications fonctionnelles
Assistance les etapes du cycle de vie de la solution : VABF, test integrations, gestion des anomalies, mise en production et exploitation
Support pour les reclamations metiers
Gestion d'equipe
Pilotage de projet
Communication sur l'avancement de projet
Definition des processus de mise en production
Accompagnement des differents intervenants dans les etapes de la mise en production des uses case
Preparation, organisation et animation des reunions
SYNTHESE DES COMPETENCES TECHNIQUES
Langages
Python, Java, JavaScript, HTML, CSS
Framework
Django, Bootstrap, AngularJS
Big data
Hive, Pig, Flume, Sqoop, Hbase, Oozie scheduler, Spark, Cassandra, Mongo DB, Apache Atlas, Kafka, Airflow, Nifi
Base de donnees
Oracle Database 10g, MySql, NoSQL (Hbase, Cassandra, Mongo DB)
Data discovery
QlikView 11, Qlik sense, Kibana, Kibi, Tableau
Data mining
Elasticsearch, ES-hadoop
Systemes d'exploitation
Linux, Microsoft
Methodologies
Agile, Cycle en V
FORMATIONS
Certification
Microsoft Certified: Azure Data Fundamentals DP-900
Diplomes
2014 Mastere recherche en Sciences et Techniques de l'Informatique Decisionnelle Institut superieur de gestion de Tunis
2011 Licence fondamentale en informatique de gestion Institut superieur de gestion de Tunis
2008 Etudes secondaires (Bac Maths)
Langues vivantes
Francais Courant
Anglais Tres bon (certification British Council C1, niveau « Advanced »)
Arabe langue maternelle
Cadrage des besoins des metiers
Redaction les specifications fonctionnelles
Assistance les etapes du cycle de vie de la solution : VABF, test integrations, gestion des anomalies, mise en production et exploitation
Support pour les reclamations metiers
Gestion d'equipe
Pilotage de projet
Communication sur l'avancement de projet
Definition des processus de mise en production
Accompagnement des differents intervenants dans les etapes de la mise en production des uses case
Preparation, organisation et animation des reunions
SYNTHESE DES COMPETENCES TECHNIQUES
Langages
Python, Java, JavaScript, HTML, CSS
Framework
Django, Bootstrap, AngularJS
Big data
Hive, Pig, Flume, Sqoop, Hbase, Oozie scheduler, Spark, Cassandra, Mongo DB, Apache Atlas, Kafka, Airflow, Nifi
Base de donnees
Oracle Database 10g, MySql, NoSQL (Hbase, Cassandra, Mongo DB)
Data discovery
QlikView 11, Qlik sense, Kibana, Kibi, Tableau
Data mining
Elasticsearch, ES-hadoop
Systemes d'exploitation
Linux, Microsoft
Methodologies
Agile, Cycle en V
FORMATIONS
Certification
Microsoft Certified: Azure Data Fundamentals DP-900
Diplomes
2014 Mastere recherche en Sciences et Techniques de l'Informatique Decisionnelle Institut superieur de gestion de Tunis
2011 Licence fondamentale en informatique de gestion Institut superieur de gestion de Tunis
2008 Etudes secondaires (Bac Maths)
Langues vivantes
Francais Courant
Anglais Tres bon (certification British Council C1, niveau « Advanced »)
Arabe langue maternelle
Expériences professionnelles
EXPERIENCES PROFESSIONNELLES
onepoint- MISSION CHEZ
EDENRED 05/2022 - 09/2022
Architecte Data
Architecte Data pour le projet Smarter au sein dEdenred.
Le projet est une plate-forme unique ouverte multi-benefices (ticket restaurant, cheque cadeau, cheque vacances, allocation
bien-etre, allocation teletravail...) servant de socle commun pour une croissance, une innovation et une differenciation
rentables et durables.
Equipes projet
le projet est au sein de l'equipe des architectes pour le projet Smarter
Travaux realises
Proposition et Conception de larchitecture d'exposition des donnees Smarter selon l'architecture Data Mesh
Benchmarking des solutions techniques pour le referentiel client
Benchmarking des solutions techniques pour les outils de data modeling
Proposition de l'architecture de pipeline DevOps pour la data modeling
Redaction des guidelines et des architectures sur Confluence
Support pour trouver des solutions pour les blocages techniques
Proposition des nouveaux outils et solutions techniques
Interaction avec les equipes techniques et data d'Edenred
Environnement Technique
Langage : C#Outils & Technologies : Mongodb, Vertabelo, Azure Cloud, Azure data factory, Azure databricks
Methodologie: Agile SAFe
onepoint - MISSION CHEZ La
SOCIETE GENERALE 03/2021 04/2022
Architecte Big Data
Architecte Big Data pour le projet Mosaic au sein dITIM/SRO.
Le projet est la lutte contre la Fraude/ la cybercriminalite, bases sur des technologies innovantes de Machine Le*******a*******
big data. Lobjectif est de continuer a ameliorer les performances du dispositif Mosaic sur les perimetres deja couverts et de
couvrir de nouveaux perimetres (nouveaux moyens de paiements, nouvelles entites etc.)Aussi de faire l'accompagnement de
migration Mosaic de l'ancienne platform Hortonworks vers la nouvelle platform Cloudera.
Equipes projet
le projet est au sein dune entite pluridisciplinaire de Data Scientists, de Data engineers, de developpement Web/API JAVA,
dexperts en cybercriminalite et darchitectes.
Travaux realises
Cadrage des besoins fonctionnels
Proposition et Conception de larchitecture globale de la solution
Redaction et mise a jour des DAUs
Support pour trouver des solutions pour les blockages techniques
Proposition des nouveaux outils et solutions techniques
Interaction avec les equipes de projet Mosaic et de migration (GTS, ITIM, BSC)
Environnement Technique
Langage : Python, Java, Javascript, Scala
Outils & Technologies : Spark, Kafka, Hive, Hbase, HDFS, Elasticsearch, Kibana, Angular, Springboot, Hortonworks, Cloudera
Systeme : Linux
onepoint - MISSION CHEZ SFR Nov. 2020 - 02/2021
Chef de Projet
Chef de projet Technico-Fonctionnel Data dun projet de refonte EAI par une architecture lambda nifi et Kafka. SFR souhaite
remplacer EAI webMethods pour plusieurs raisons :
Mettre en place un socle plus innovant
Competences WebMethods rares vis-a-vis des competences Nifi
Version WebMethods actuelle ancienne dont un upgrade, tres couteux, serait necessaire
L'obsolescence de l'EAI existant avec un faible volume devolutions
Les enjeux strategiques et innovants, de la refonte sont nombreux :
Utiliser des technologies OpenSource performantes et attractives
Creer un backbone Data innovent et performant
Ajouter une couche de supervision pour anticiper et ameliorer le QOS
Offrir par le biais d'un BAM (Business Activity Monitoring) une supervision des processus et activites metiers par des
tableaux de bord
Limiter la dependance systeme par rapport aux solutions marche tres onereuses pour le run et les upgrades
Equipes projet
Equipe projet onepoint : Chef de projet Technico-Fonctionnel Data, Architecte, Coordinateur technique, 2 Developpeurs,
Directeur technique et Directeur DeliveryEquipe projet SFR : Sponsor IT, Core Team IT, Chefs de Projet IT et Equipe Back IT
Travaux realises
Preparation Kick off :
o Preparation de document de presentation avec les details comme larchitecture
o Organisation des ateliers de preparation de kick off et des environnements techniques
Preparation des ateliers flux, module administration, BAM et Architecture:
o Preparation a lavance de latelier (les themes, lorganisation )
o Preparation dun PPT de presentation
o Preparation de CR apres latelier
Redaction de document de specifications technico-fonctionnelles des flux de donnees
Module de Business Activity Monitoring (BAM):
o Proposition des use cases
o Proposition de la demarche
o Etude fonctionnelle (axes danalyses, mesures, KPI)
o Modelisation des donnees
o Redaction de document de specifications technico-fonctionnelles
o Accompagnement de client a la realisation des Dashboard
Module administration (IHM):
o Redaction de document de specifications technico-fonctionnelles
o Etude de l'existant
o Restitution des nouveaux besoins
o Propositions des fonctionnalites, cinematique des ecrans, maquettes de zoning et maquettes detaillees
pour les ecrans
Daily Meeting:
o Preparation dun document PPT avec les points techniques dactualite, lavancement de traitement des
actions et Recap/Planning des ateliers
o Preparation de CR apres la reunion
o Animation de meeting
Suivi et enrichissement de Backlog Jira
Suivi davancement de planning
Suivi davancement des actions techniques cote SFR et onepoint
Environnement Technique
Langage : Java, JavascriptOutils & Technologies : Nifi, Kafka, Elasticsearch, Kibana, Postgres, Kubernetes, Angular, Springboot,
QuarkusSysteme : Linux
OBJECTWARE- POC POUR
GROUPE BEL
Avr. 2020 - Aout 2020
Expert Data
Proof of Concept dune plateforme danalyse des donnees collectees des machines dans les usines pour lequipe de
linformatique industrielle.
Travaux realises
Proposition de larchitecture technique de la solution
Conception et developpement de la solution selon les etapes suivantes :
▪ Installation des outils (Python, Elasticsearch, Kibana)
▪ Collecte des donnees a partir de lAPI PI web de Osisoft par des scripts python
▪ Modelisation de dataset NEP (index) qui contient des informations sur les differentes etapes des
nettoyages des machines
▪ Transformation et croisement des donnees
▪ Indexation des donnees sur Elasticsearch par la librairie Python elasticsearch-py
▪ Restitution des KPI et la creation des data visualisations par des dashboards Kibana
Redaction des specifications techniques du POC
Environnement Technique
Langage : PythonOutils & Technologies : Elasticsearch, Kibana, PI Web API OsisoftSysteme : Windows
OBJECTWARE-MISSION CHEZ
LA SOCIETE GENERALE Oct. 2019 - Mars 2020
Chef de projet DataLab
Le projet de DataLab SIRA vise tous les developpeurs et utilisateurs doutils danalytics chez RISQ :
o Les differentes equipes de modelisation RISQ pour les besoins
o Les equipes transverses du BSC pour realiser certains developpements ou pour donner des solutions deja
sur etageres
Le projet vise a offrir a tous les utilisateurs des departements RISQ:
o un environnement de developpement des outils analytics repondant aux besoins internes et daudit.
o et a fournir de maniere securisee, aux utilisateurs bancaires autorises (RISQ et eventuellement lignes
metier), les moyens de les utiliser, de partager les resultats et de collaborer grace a un portail.
Equipes projet
BSC ARS de la Societe ******* metiers RISQFournisseur dinfrastructure OSMOSELes architectes Fonctionnelle et
Technique
Travaux realises
Pilotage de projet
Echange et cadrage des besoins metiers RISQ
Documenter l'ensemble des etapes du projet
Preparer, organiser et animer lensemble des reunions
Accompagner les data Scientiste sur les aspects techniques de projet
Amelioration de lenvironnement technique (lintegration des nouvelles technologies)
Proposition des nouveaux outils et solutions techniques
Accompagner les differents intervenants dans les etapes de la mise en production des uses case (exemple : luse case dindicateur de vulnerabilite climatique)
Definir les processus de mise en production, des changements et des incidents
Participation au POC des outils Dataiku et Alteryx
ENVIRONNEMENT TECHNIQUE
Langages : R, PythonOutils & Technologies: RStudio PRO, Rshiny, Shiny Server Pro, Anaconda, Jupyter, SAS Viya, Alteryx,
Dataiku, Grafana, gitSysteme : Linux
AMETIX- MISSION CHEZ LA
POSTE
Fev. 2019 - Sept. 2019
Data Engineer
SMARTLAKE : Le but de ce projet est davoir une data lake de la branche numerique selon les etapes decrites cidessous :
o Ingestion des donnees La Poste en mode streaming et batch
o Stockage, Traitement, Enrichissement et Cryptage des donnees
o Exposition des donnees a travers des API, des dataset et les outils data visualisation
CARTOGRAPHIE DATA LAKE : Le but de ce projet est davoir un catalogue de donnees pour avoir plus de visibilites
sur les donnees de SmartLake. Aussi pour tracer le cycle de vie de donnees, davoir lhistorique des modifications,
leurs sources et le Data lineage.
Equipes projet
equipe des developpeurs Big Data de la branche numerique de La Poste
Travaux realises
Developpements techniques des usages de datalake (ingestion, preparation/exposition des donnees)
Realisation de POC de cartographie data avec des scripts python et loutil Apache Atlas
ENVIRONNEMENT TECHNIQUE :
Langages : Scala, PythonOutils & Technologies: Kafka, Spark, Airflow, Hadoop HDFS, Hue, Zeppelin, elasticsearch, kibana,
Tableau, Dataiku, Grafana, Ansible, Jankins, git, Search Guard, Mesosphere DC/OS, Apache AtlasSysteme : Linux
GFI INFORMATIQUE Mars 2018 - Jan. 2019
Ingenieur BIG DATA/Data Scientiste (03/18 08/18) Responsable des Activites Big Data, Data
Science et Intelligence Artificielle (09/18 01/19)
SMART PARKING: Le but de ce projet est de concevoir et de developper un systeme dinformation capable de gerer
et de predire la disponibilite des places de parking.
E-satisfaction: Le but de ce projet est de concevoir et de developper un systeme dinformation capable de collecter
et analyser la satisfaction client pour les services et produits fournir par lentreprise. Aussi de faire le profiling clients
et predire leurs besoins
Chatbot RH: Le but de ce projet est de concevoir et de developper un chatbot qui permettre de trouver rapidement
les meilleurs profils pour repondre aux besoins d'un client. Aussi pour amelioration de la qualification des candidats
en base de donnees.
o Module dupload des CVs:
▪ La connexion au service mail
▪ Le telechargement des de CV principalement a partir de ladresse e-mail
▪ Lautomatisation de limportation des CVs d'apres le-mail vers la base
▪ Limportation manuelle simple et/ou multiple des CVs
▪ Stockage des CV dans des dossiers organises
▪ Detecter lors de lupload sil sagit dun CV format pdf ou bien CV format image
▪ Detecter lors de la recuperation des CVs d'apres le-mail sil sagit dun CV ou bien une lettre de
motivation
▪ Detecter la redondance lors de lupload dun CV, sil deja indexe alors indexer la nouvelle version
▪ Un volet pour telecharger manuellement les CVs d'apres le-mail pour un besoin particulier (par
exemple les stages, un concours, etc,..
o Module de Text Mining :
▪ Conversion de CV de pdf/word vers format text
▪ Transformation de text
▪ Extraction des donnees utiles tel que non, prenom numero de telephone les urls, e-mail etc
o Module de recherche :
▪ Indexation des donnees sur un moteur de recherche
▪ Faire la recherche par des filtres (Recherche par Date, Recherche par e-mail, Recherche par
entreprise )
▪ Interaction avec le service mail Outlook, lors du clic sur le-mail du candidat, ouvrir linterface
directe du service mail
o Module de LAPI Chatbot :
▪ Training de bot avec des phrases et des mots cle necessaires pour lancer des serach
▪ Interaction avec LAPI de Chatbot
o Module de Machine le*******a*******
▪ Affecter des scores aux Cvs selon des criteres
▪ Faire la classification des Cvs
▪ Faire le job matching automatique avec Machine le*******a*******
▪ Calcul des KPI et faire des analyses sur les profiles des candidats
Equipes projet
membre de lequipe IoT dans le pole R&D, puis jai evolue vers la responsabilite dune nouvelle entite Big Data, Data Science
et IA
Travaux realises
Contribution technique sur les projets Iot (preparations des donnees, calcul des KPI, Analyse, prediction)
Gestion de l'equipe de la nouvelle entite
Animation des reunions
Redactions des solutions techniques dans les AO
Pilotage technique des projets
Architecture applicative
Suivi de cycle de vie des differents produits
Documentations
Communication sur lavancement des projets
Encadrements des etudiants
Proposition des nouveaux projets dans le domaine de IA, Big data et Data Science
ENVIRONNEMENT TECHNIQUE :
Langages : CQLSH, Java, python, JavaScriptOutils & Technologies : Plateforme IoT KAA, Spark, Spark Mlib, Cassandra,
Zeppelin, Django, Angular js, Mongo db, NLTK, elasticsearch, kibana, Nodejs, Express.js, React, api.aiSysteme : Linux
ORANGE TUNISIE Oct. 2015 - Mars 2018
Data Scientiste BI/Big Data
Le projet BIG DATA consiste a gagner en productivite et ameliorer la qualite de service Orange a travers la mise en place
dune plateforme Big Data.Mise en place de lenvironnement BIG DATA Front Office Pre-PROD :Installation de
lenvironnement front office (installation Elastic stack et Python), configuration des composants Hadoop (HCatalog, HBase
REST interface...), installation des connecteurs/librairies (ES-Hadoop, Package Python : Django, starbase ) requis pour la
realisation des POC et installation des outils de monitoring (Plugin de monitoring de cluster Elasticsearch). Conception et
realisation des cas dutilisation suivants:
La mise une place d'un outil de monitoring et supervision de traitement Hadoop (logs tracking) :
o Collecter les logs Hadoop (Yarn resource manager, yarn namenode, mapred-historyserver (log des jobs
mapreduce), hdfs-namenode, hive, oozie, pig, spark...) avec logstach.
o Parsing, transformation et injection a travers logstash et indexation au niveau delasticsearch.
o Visualisation avec Kibana.
Controle de la qualite reseau (QoS) : Identification des causes principales des incidents reseaux :
o Collecte et injection des donnees des sondes reseau (Otarie, Astelia) contenant les details de navigation
reseau (localisation cellule, duree appel /session, debit, volume upload/download )
o Transformation et enrichissement des donnees pour lindexation via Elasticsearch (avec des scripts
PIG/Spark) : correspondance geographique, jointure avec le referentiel client, partitionnement par date de
levenement
o Optimisation des performances dindexation suivant la taille des donnees et modelisation de lindex
(nombre des primary / replicas shards, proprietes dindexation, mapping des champs)
o Indexation des donnees collectees suivant les axes danalyse determines.
o Restitution des KPIs via des tableaux de bord: Kibi, kibana et application web exploitant lAPI REST
delasticsearch.
Construction dune vue 360° sur les abonnes dOrange Tunisie :
o Collecte des donnees contenant les details des evenements (appel, sms, recharge, achat doption ) et les
reclamations des abonnes provenant du CRM.
o Croisement des donnees collectees avec le referentiel client contenant des informations telles que le type
de contrat (prepaye, postpaye), loffre, la date dactivation
o Stockage des donnees pre-calculees dans HBase par famille (consommation contrat reclamations
geolocalisation) a travers une table externe Hive.
o Restitution des incidents reseaux indexes sur Elasticsearch et des donnees stockees sur HBase via
linteraction web service des APIs REST
o Realisation danalyses avancees afin de :
▪ Prevoir les eventuels churns : les abonnes susceptibles de quitter le reseau Orange.
▪ Repartir les abonnes selon des axes bien definis (age, sexe, region, offre )
▪ Calculer la base active : la base des abonnes actifs (ayant au moins un evenement reseau durant
une periode bien determinee).
▪ Etudier les High usage des offres par categorie abonne.
Social network friend of friend: Strategie de marketing cible a travers lidentification du dominant au sein dun
groupe dabonnes et lattribution des scores par type de relation (ami intime, famille...):
o Collecte des details des appels depuis la source MSC (date evenement, duree appel, localisation...)
o Agregation et identification des relations a travers Hive en se basant sur des criteres de repartition de
groupe.
o Indexation sur elasticsearch et attribution du score par type de relation
o Restitution via Kibi et determination de dominant a travers les scores affectes
o La double jointure des indexes et determination des relations pouvant avoir lieu entre 2 abonnes nayant
pas effectue dappel (suivant le principe de friend of friend)
Detection de Fraude en temps reel : Mise en place dun systeme de detection de fraude par Simbox suivant des
criteres dynamiques :
o Preparation des criteres de detection, identification des sources (MSC, referentiel client, mapping
geographique, blacklistes) et determination des transformations a faire.
o Preparation du modele au niveau de la machine le*******a*******
Hdfs.
o Import des donnees via Kafka et Flume en mode streaming.
o Traitement des transformations et enrichissement au niveau Spark streaming.
o Indexation au niveau Elasticsearch et restitution des valeurs finales du modele (Population des fraudeurs
confirmes).
Analyse du marche B2B : Identification des causes principales des churns et revision des offres proposees aux grands
comptes :
o Etude de la retention des donnees et collecte des details des evenements : appel/recharge, de la
facturation/recouvrement et des contrats/engagements du groupe client B2B.
o Traitement des transformations et enrichissement au niveau Spark streaming.
o Preparation du modele au niveau de la machine le*******a*******
Hdfs : output prediction des churns a travers lanalyse comportementale des clients B2B.
o Validation du modele avec des clients de training Data et test Data : Identification des taux de precision et
de la matrice de confusion.
o Chargement du modele et stockage de loutput de la prediction dans HBase par famille de clients B2B
(grands comptes, conventions ) a travers une table externe Hive.
o Restitution des donnees stockees sur HBase via linteraction web service des APIs REST sous forme dune
entite a integrer dans la vue 360° dOrange Tunisie.
Equipes projet
Membre de lequipe front office du projet Big Data (equipe composee de 10 personnes)
Travaux realises
Installation et configuration
Identification des sources des donnees
Modelisation :
o le sizing et le mapping des index Elasticsearch
o La repartition des tables HBase par des familles
Integration des connecteurs (ES-haddop)
Indexation sur Elasticsearch (par des scripts PIG/HIVE/SPARK)
Visualisation sur Kibana
Analyse (syntaxique et semantique) des donnees Astelia et Otarie
o Comprehension des donnees
o Identification des cas dutilisation (MOC, MTC, SMS, PS, drop call, degradation de qualite de reseaux par
exemple de 3G vers 2G, Handover, phenomene de ping pong, IVR, USSD )
le stockage des donnees pre-calculees sur les tables Hbase (par des tables externe Hive)
Agregation des donnees sur des tables Hive
Developpement des applications web Django (Python) et AngularJs qui invoque les REST API dElasticsearch et Hbase
pour la presentation des KPI et les details sur les clients
Preparation des criteres et Identification des sources des donnees pour les modeles de machine le*******a*******
Preparation du modele au niveau de la machine le*******a*******
ENVIRONNEMENT TECHNIQUE :
Langages : Python, PIG latin, HiveQL, ScalaOutils & Technologies : Django, AngularJS, bootstrap, Spark, Hive, Pig, Hbase,
Flume, Sqoop, Avro, Ooozie, Json, Cloudera 5.4, ElasticSearch, Kibana, KibiSystemes : Linux
Les projets BI qui correspond aux demandes des equipes metiers (commercial, marketing ) tel que la mise en place des
nouvelles offres ou options, recharge, roaming, achats, facturation
Equipes projet
Membre de lequipe front office des projets BI (vis-a-vis BI pour le departement commercial)
Travaux realises
Collecter et cadrer le besoin des metiers
Rediger les specifications fonctionnelles et techniques
Concevoir larchitecture globale de la solution a implementer
Developper la solution job/Reporting/Dashboard
Assister les etapes du cycle de vie de la solution : test integrations, gestion des anomalies, mise en production et
exploitation
Assurer un support pour les reclamations metiers
Assurer un support au metier en phase de VABF
ENVIRONNEMENT TECHNIQUE :
Langages : SQLOutils &Technologies : Oracle 10g, Qlikview 11, Qlik SenseSystemes : Microsoft
onepoint- MISSION CHEZ
EDENRED 05/2022 - 09/2022
Architecte Data
Architecte Data pour le projet Smarter au sein dEdenred.
Le projet est une plate-forme unique ouverte multi-benefices (ticket restaurant, cheque cadeau, cheque vacances, allocation
bien-etre, allocation teletravail...) servant de socle commun pour une croissance, une innovation et une differenciation
rentables et durables.
Equipes projet
le projet est au sein de l'equipe des architectes pour le projet Smarter
Travaux realises
Proposition et Conception de larchitecture d'exposition des donnees Smarter selon l'architecture Data Mesh
Benchmarking des solutions techniques pour le referentiel client
Benchmarking des solutions techniques pour les outils de data modeling
Proposition de l'architecture de pipeline DevOps pour la data modeling
Redaction des guidelines et des architectures sur Confluence
Support pour trouver des solutions pour les blocages techniques
Proposition des nouveaux outils et solutions techniques
Interaction avec les equipes techniques et data d'Edenred
Environnement Technique
Langage : C#Outils & Technologies : Mongodb, Vertabelo, Azure Cloud, Azure data factory, Azure databricks
Methodologie: Agile SAFe
onepoint - MISSION CHEZ La
SOCIETE GENERALE 03/2021 04/2022
Architecte Big Data
Architecte Big Data pour le projet Mosaic au sein dITIM/SRO.
Le projet est la lutte contre la Fraude/ la cybercriminalite, bases sur des technologies innovantes de Machine Le*******a*******
big data. Lobjectif est de continuer a ameliorer les performances du dispositif Mosaic sur les perimetres deja couverts et de
couvrir de nouveaux perimetres (nouveaux moyens de paiements, nouvelles entites etc.)Aussi de faire l'accompagnement de
migration Mosaic de l'ancienne platform Hortonworks vers la nouvelle platform Cloudera.
Equipes projet
le projet est au sein dune entite pluridisciplinaire de Data Scientists, de Data engineers, de developpement Web/API JAVA,
dexperts en cybercriminalite et darchitectes.
Travaux realises
Cadrage des besoins fonctionnels
Proposition et Conception de larchitecture globale de la solution
Redaction et mise a jour des DAUs
Support pour trouver des solutions pour les blockages techniques
Proposition des nouveaux outils et solutions techniques
Interaction avec les equipes de projet Mosaic et de migration (GTS, ITIM, BSC)
Environnement Technique
Langage : Python, Java, Javascript, Scala
Outils & Technologies : Spark, Kafka, Hive, Hbase, HDFS, Elasticsearch, Kibana, Angular, Springboot, Hortonworks, Cloudera
Systeme : Linux
onepoint - MISSION CHEZ SFR Nov. 2020 - 02/2021
Chef de Projet
Chef de projet Technico-Fonctionnel Data dun projet de refonte EAI par une architecture lambda nifi et Kafka. SFR souhaite
remplacer EAI webMethods pour plusieurs raisons :
Mettre en place un socle plus innovant
Competences WebMethods rares vis-a-vis des competences Nifi
Version WebMethods actuelle ancienne dont un upgrade, tres couteux, serait necessaire
L'obsolescence de l'EAI existant avec un faible volume devolutions
Les enjeux strategiques et innovants, de la refonte sont nombreux :
Utiliser des technologies OpenSource performantes et attractives
Creer un backbone Data innovent et performant
Ajouter une couche de supervision pour anticiper et ameliorer le QOS
Offrir par le biais d'un BAM (Business Activity Monitoring) une supervision des processus et activites metiers par des
tableaux de bord
Limiter la dependance systeme par rapport aux solutions marche tres onereuses pour le run et les upgrades
Equipes projet
Equipe projet onepoint : Chef de projet Technico-Fonctionnel Data, Architecte, Coordinateur technique, 2 Developpeurs,
Directeur technique et Directeur DeliveryEquipe projet SFR : Sponsor IT, Core Team IT, Chefs de Projet IT et Equipe Back IT
Travaux realises
Preparation Kick off :
o Preparation de document de presentation avec les details comme larchitecture
o Organisation des ateliers de preparation de kick off et des environnements techniques
Preparation des ateliers flux, module administration, BAM et Architecture:
o Preparation a lavance de latelier (les themes, lorganisation )
o Preparation dun PPT de presentation
o Preparation de CR apres latelier
Redaction de document de specifications technico-fonctionnelles des flux de donnees
Module de Business Activity Monitoring (BAM):
o Proposition des use cases
o Proposition de la demarche
o Etude fonctionnelle (axes danalyses, mesures, KPI)
o Modelisation des donnees
o Redaction de document de specifications technico-fonctionnelles
o Accompagnement de client a la realisation des Dashboard
Module administration (IHM):
o Redaction de document de specifications technico-fonctionnelles
o Etude de l'existant
o Restitution des nouveaux besoins
o Propositions des fonctionnalites, cinematique des ecrans, maquettes de zoning et maquettes detaillees
pour les ecrans
Daily Meeting:
o Preparation dun document PPT avec les points techniques dactualite, lavancement de traitement des
actions et Recap/Planning des ateliers
o Preparation de CR apres la reunion
o Animation de meeting
Suivi et enrichissement de Backlog Jira
Suivi davancement de planning
Suivi davancement des actions techniques cote SFR et onepoint
Environnement Technique
Langage : Java, JavascriptOutils & Technologies : Nifi, Kafka, Elasticsearch, Kibana, Postgres, Kubernetes, Angular, Springboot,
QuarkusSysteme : Linux
OBJECTWARE- POC POUR
GROUPE BEL
Avr. 2020 - Aout 2020
Expert Data
Proof of Concept dune plateforme danalyse des donnees collectees des machines dans les usines pour lequipe de
linformatique industrielle.
Travaux realises
Proposition de larchitecture technique de la solution
Conception et developpement de la solution selon les etapes suivantes :
▪ Installation des outils (Python, Elasticsearch, Kibana)
▪ Collecte des donnees a partir de lAPI PI web de Osisoft par des scripts python
▪ Modelisation de dataset NEP (index) qui contient des informations sur les differentes etapes des
nettoyages des machines
▪ Transformation et croisement des donnees
▪ Indexation des donnees sur Elasticsearch par la librairie Python elasticsearch-py
▪ Restitution des KPI et la creation des data visualisations par des dashboards Kibana
Redaction des specifications techniques du POC
Environnement Technique
Langage : PythonOutils & Technologies : Elasticsearch, Kibana, PI Web API OsisoftSysteme : Windows
OBJECTWARE-MISSION CHEZ
LA SOCIETE GENERALE Oct. 2019 - Mars 2020
Chef de projet DataLab
Le projet de DataLab SIRA vise tous les developpeurs et utilisateurs doutils danalytics chez RISQ :
o Les differentes equipes de modelisation RISQ pour les besoins
o Les equipes transverses du BSC pour realiser certains developpements ou pour donner des solutions deja
sur etageres
Le projet vise a offrir a tous les utilisateurs des departements RISQ:
o un environnement de developpement des outils analytics repondant aux besoins internes et daudit.
o et a fournir de maniere securisee, aux utilisateurs bancaires autorises (RISQ et eventuellement lignes
metier), les moyens de les utiliser, de partager les resultats et de collaborer grace a un portail.
Equipes projet
BSC ARS de la Societe ******* metiers RISQFournisseur dinfrastructure OSMOSELes architectes Fonctionnelle et
Technique
Travaux realises
Pilotage de projet
Echange et cadrage des besoins metiers RISQ
Documenter l'ensemble des etapes du projet
Preparer, organiser et animer lensemble des reunions
Accompagner les data Scientiste sur les aspects techniques de projet
Amelioration de lenvironnement technique (lintegration des nouvelles technologies)
Proposition des nouveaux outils et solutions techniques
Accompagner les differents intervenants dans les etapes de la mise en production des uses case (exemple : luse case dindicateur de vulnerabilite climatique)
Definir les processus de mise en production, des changements et des incidents
Participation au POC des outils Dataiku et Alteryx
ENVIRONNEMENT TECHNIQUE
Langages : R, PythonOutils & Technologies: RStudio PRO, Rshiny, Shiny Server Pro, Anaconda, Jupyter, SAS Viya, Alteryx,
Dataiku, Grafana, gitSysteme : Linux
AMETIX- MISSION CHEZ LA
POSTE
Fev. 2019 - Sept. 2019
Data Engineer
SMARTLAKE : Le but de ce projet est davoir une data lake de la branche numerique selon les etapes decrites cidessous :
o Ingestion des donnees La Poste en mode streaming et batch
o Stockage, Traitement, Enrichissement et Cryptage des donnees
o Exposition des donnees a travers des API, des dataset et les outils data visualisation
CARTOGRAPHIE DATA LAKE : Le but de ce projet est davoir un catalogue de donnees pour avoir plus de visibilites
sur les donnees de SmartLake. Aussi pour tracer le cycle de vie de donnees, davoir lhistorique des modifications,
leurs sources et le Data lineage.
Equipes projet
equipe des developpeurs Big Data de la branche numerique de La Poste
Travaux realises
Developpements techniques des usages de datalake (ingestion, preparation/exposition des donnees)
Realisation de POC de cartographie data avec des scripts python et loutil Apache Atlas
ENVIRONNEMENT TECHNIQUE :
Langages : Scala, PythonOutils & Technologies: Kafka, Spark, Airflow, Hadoop HDFS, Hue, Zeppelin, elasticsearch, kibana,
Tableau, Dataiku, Grafana, Ansible, Jankins, git, Search Guard, Mesosphere DC/OS, Apache AtlasSysteme : Linux
GFI INFORMATIQUE Mars 2018 - Jan. 2019
Ingenieur BIG DATA/Data Scientiste (03/18 08/18) Responsable des Activites Big Data, Data
Science et Intelligence Artificielle (09/18 01/19)
SMART PARKING: Le but de ce projet est de concevoir et de developper un systeme dinformation capable de gerer
et de predire la disponibilite des places de parking.
E-satisfaction: Le but de ce projet est de concevoir et de developper un systeme dinformation capable de collecter
et analyser la satisfaction client pour les services et produits fournir par lentreprise. Aussi de faire le profiling clients
et predire leurs besoins
Chatbot RH: Le but de ce projet est de concevoir et de developper un chatbot qui permettre de trouver rapidement
les meilleurs profils pour repondre aux besoins d'un client. Aussi pour amelioration de la qualification des candidats
en base de donnees.
o Module dupload des CVs:
▪ La connexion au service mail
▪ Le telechargement des de CV principalement a partir de ladresse e-mail
▪ Lautomatisation de limportation des CVs d'apres le-mail vers la base
▪ Limportation manuelle simple et/ou multiple des CVs
▪ Stockage des CV dans des dossiers organises
▪ Detecter lors de lupload sil sagit dun CV format pdf ou bien CV format image
▪ Detecter lors de la recuperation des CVs d'apres le-mail sil sagit dun CV ou bien une lettre de
motivation
▪ Detecter la redondance lors de lupload dun CV, sil deja indexe alors indexer la nouvelle version
▪ Un volet pour telecharger manuellement les CVs d'apres le-mail pour un besoin particulier (par
exemple les stages, un concours, etc,..
o Module de Text Mining :
▪ Conversion de CV de pdf/word vers format text
▪ Transformation de text
▪ Extraction des donnees utiles tel que non, prenom numero de telephone les urls, e-mail etc
o Module de recherche :
▪ Indexation des donnees sur un moteur de recherche
▪ Faire la recherche par des filtres (Recherche par Date, Recherche par e-mail, Recherche par
entreprise )
▪ Interaction avec le service mail Outlook, lors du clic sur le-mail du candidat, ouvrir linterface
directe du service mail
o Module de LAPI Chatbot :
▪ Training de bot avec des phrases et des mots cle necessaires pour lancer des serach
▪ Interaction avec LAPI de Chatbot
o Module de Machine le*******a*******
▪ Affecter des scores aux Cvs selon des criteres
▪ Faire la classification des Cvs
▪ Faire le job matching automatique avec Machine le*******a*******
▪ Calcul des KPI et faire des analyses sur les profiles des candidats
Equipes projet
membre de lequipe IoT dans le pole R&D, puis jai evolue vers la responsabilite dune nouvelle entite Big Data, Data Science
et IA
Travaux realises
Contribution technique sur les projets Iot (preparations des donnees, calcul des KPI, Analyse, prediction)
Gestion de l'equipe de la nouvelle entite
Animation des reunions
Redactions des solutions techniques dans les AO
Pilotage technique des projets
Architecture applicative
Suivi de cycle de vie des differents produits
Documentations
Communication sur lavancement des projets
Encadrements des etudiants
Proposition des nouveaux projets dans le domaine de IA, Big data et Data Science
ENVIRONNEMENT TECHNIQUE :
Langages : CQLSH, Java, python, JavaScriptOutils & Technologies : Plateforme IoT KAA, Spark, Spark Mlib, Cassandra,
Zeppelin, Django, Angular js, Mongo db, NLTK, elasticsearch, kibana, Nodejs, Express.js, React, api.aiSysteme : Linux
ORANGE TUNISIE Oct. 2015 - Mars 2018
Data Scientiste BI/Big Data
Le projet BIG DATA consiste a gagner en productivite et ameliorer la qualite de service Orange a travers la mise en place
dune plateforme Big Data.Mise en place de lenvironnement BIG DATA Front Office Pre-PROD :Installation de
lenvironnement front office (installation Elastic stack et Python), configuration des composants Hadoop (HCatalog, HBase
REST interface...), installation des connecteurs/librairies (ES-Hadoop, Package Python : Django, starbase ) requis pour la
realisation des POC et installation des outils de monitoring (Plugin de monitoring de cluster Elasticsearch). Conception et
realisation des cas dutilisation suivants:
La mise une place d'un outil de monitoring et supervision de traitement Hadoop (logs tracking) :
o Collecter les logs Hadoop (Yarn resource manager, yarn namenode, mapred-historyserver (log des jobs
mapreduce), hdfs-namenode, hive, oozie, pig, spark...) avec logstach.
o Parsing, transformation et injection a travers logstash et indexation au niveau delasticsearch.
o Visualisation avec Kibana.
Controle de la qualite reseau (QoS) : Identification des causes principales des incidents reseaux :
o Collecte et injection des donnees des sondes reseau (Otarie, Astelia) contenant les details de navigation
reseau (localisation cellule, duree appel /session, debit, volume upload/download )
o Transformation et enrichissement des donnees pour lindexation via Elasticsearch (avec des scripts
PIG/Spark) : correspondance geographique, jointure avec le referentiel client, partitionnement par date de
levenement
o Optimisation des performances dindexation suivant la taille des donnees et modelisation de lindex
(nombre des primary / replicas shards, proprietes dindexation, mapping des champs)
o Indexation des donnees collectees suivant les axes danalyse determines.
o Restitution des KPIs via des tableaux de bord: Kibi, kibana et application web exploitant lAPI REST
delasticsearch.
Construction dune vue 360° sur les abonnes dOrange Tunisie :
o Collecte des donnees contenant les details des evenements (appel, sms, recharge, achat doption ) et les
reclamations des abonnes provenant du CRM.
o Croisement des donnees collectees avec le referentiel client contenant des informations telles que le type
de contrat (prepaye, postpaye), loffre, la date dactivation
o Stockage des donnees pre-calculees dans HBase par famille (consommation contrat reclamations
geolocalisation) a travers une table externe Hive.
o Restitution des incidents reseaux indexes sur Elasticsearch et des donnees stockees sur HBase via
linteraction web service des APIs REST
o Realisation danalyses avancees afin de :
▪ Prevoir les eventuels churns : les abonnes susceptibles de quitter le reseau Orange.
▪ Repartir les abonnes selon des axes bien definis (age, sexe, region, offre )
▪ Calculer la base active : la base des abonnes actifs (ayant au moins un evenement reseau durant
une periode bien determinee).
▪ Etudier les High usage des offres par categorie abonne.
Social network friend of friend: Strategie de marketing cible a travers lidentification du dominant au sein dun
groupe dabonnes et lattribution des scores par type de relation (ami intime, famille...):
o Collecte des details des appels depuis la source MSC (date evenement, duree appel, localisation...)
o Agregation et identification des relations a travers Hive en se basant sur des criteres de repartition de
groupe.
o Indexation sur elasticsearch et attribution du score par type de relation
o Restitution via Kibi et determination de dominant a travers les scores affectes
o La double jointure des indexes et determination des relations pouvant avoir lieu entre 2 abonnes nayant
pas effectue dappel (suivant le principe de friend of friend)
Detection de Fraude en temps reel : Mise en place dun systeme de detection de fraude par Simbox suivant des
criteres dynamiques :
o Preparation des criteres de detection, identification des sources (MSC, referentiel client, mapping
geographique, blacklistes) et determination des transformations a faire.
o Preparation du modele au niveau de la machine le*******a*******
Hdfs.
o Import des donnees via Kafka et Flume en mode streaming.
o Traitement des transformations et enrichissement au niveau Spark streaming.
o Indexation au niveau Elasticsearch et restitution des valeurs finales du modele (Population des fraudeurs
confirmes).
Analyse du marche B2B : Identification des causes principales des churns et revision des offres proposees aux grands
comptes :
o Etude de la retention des donnees et collecte des details des evenements : appel/recharge, de la
facturation/recouvrement et des contrats/engagements du groupe client B2B.
o Traitement des transformations et enrichissement au niveau Spark streaming.
o Preparation du modele au niveau de la machine le*******a*******
Hdfs : output prediction des churns a travers lanalyse comportementale des clients B2B.
o Validation du modele avec des clients de training Data et test Data : Identification des taux de precision et
de la matrice de confusion.
o Chargement du modele et stockage de loutput de la prediction dans HBase par famille de clients B2B
(grands comptes, conventions ) a travers une table externe Hive.
o Restitution des donnees stockees sur HBase via linteraction web service des APIs REST sous forme dune
entite a integrer dans la vue 360° dOrange Tunisie.
Equipes projet
Membre de lequipe front office du projet Big Data (equipe composee de 10 personnes)
Travaux realises
Installation et configuration
Identification des sources des donnees
Modelisation :
o le sizing et le mapping des index Elasticsearch
o La repartition des tables HBase par des familles
Integration des connecteurs (ES-haddop)
Indexation sur Elasticsearch (par des scripts PIG/HIVE/SPARK)
Visualisation sur Kibana
Analyse (syntaxique et semantique) des donnees Astelia et Otarie
o Comprehension des donnees
o Identification des cas dutilisation (MOC, MTC, SMS, PS, drop call, degradation de qualite de reseaux par
exemple de 3G vers 2G, Handover, phenomene de ping pong, IVR, USSD )
le stockage des donnees pre-calculees sur les tables Hbase (par des tables externe Hive)
Agregation des donnees sur des tables Hive
Developpement des applications web Django (Python) et AngularJs qui invoque les REST API dElasticsearch et Hbase
pour la presentation des KPI et les details sur les clients
Preparation des criteres et Identification des sources des donnees pour les modeles de machine le*******a*******
Preparation du modele au niveau de la machine le*******a*******
ENVIRONNEMENT TECHNIQUE :
Langages : Python, PIG latin, HiveQL, ScalaOutils & Technologies : Django, AngularJS, bootstrap, Spark, Hive, Pig, Hbase,
Flume, Sqoop, Avro, Ooozie, Json, Cloudera 5.4, ElasticSearch, Kibana, KibiSystemes : Linux
Les projets BI qui correspond aux demandes des equipes metiers (commercial, marketing ) tel que la mise en place des
nouvelles offres ou options, recharge, roaming, achats, facturation
Equipes projet
Membre de lequipe front office des projets BI (vis-a-vis BI pour le departement commercial)
Travaux realises
Collecter et cadrer le besoin des metiers
Rediger les specifications fonctionnelles et techniques
Concevoir larchitecture globale de la solution a implementer
Developper la solution job/Reporting/Dashboard
Assister les etapes du cycle de vie de la solution : test integrations, gestion des anomalies, mise en production et
exploitation
Assurer un support pour les reclamations metiers
Assurer un support au metier en phase de VABF
ENVIRONNEMENT TECHNIQUE :
Langages : SQLOutils &Technologies : Oracle 10g, Qlikview 11, Qlik SenseSystemes : Microsoft
Langues étrangères
Bilingue : Anglais