Entreprises, déposez une offre...
...ou transmettez-nous vos demandes par téléphone !
Déposez votre offre d'emploi ou de mission (GRATUIT)
Nom, Prénom :
Société :
Téléphone :
E-mail :
 
 
CV informaticien n°230131F003
Profil :
Chef de projet, Architecte - né(e) en 1970
Mobilité :
Toutes les régions
Compétences techniques
 
Expert
Senior
Junior
Notions
DATA
case à cocher
 
 
 
BIG DATA
case à cocher
 
 
 
Etudes et formations
SYNTHESE DES COMPETENCES FONCTIONNELLES

• Cadrage des besoins des metiers
• Redaction les specifications fonctionnelles
• Assistance les etapes du cycle de vie de la solution : VABF, test integrations, gestion des anomalies, mise en production et exploitation
• Support pour les reclamations metiers
• Gestion d'equipe
• Pilotage de projet
• Communication sur l'avancement de projet
• Definition des processus de mise en production
• Accompagnement des differents intervenants dans les etapes de la mise en production des uses case
• Preparation, organisation et animation des reunions

SYNTHESE DES COMPETENCES TECHNIQUES

Langages
Python, Java, JavaScript, HTML, CSS
Framework
Django, Bootstrap, AngularJS
Big data
Hive, Pig, Flume, Sqoop, Hbase, Oozie scheduler, Spark, Cassandra, Mongo DB, Apache Atlas, Kafka, Airflow, Nifi
Base de donnees
Oracle Database 10g, MySql, NoSQL (Hbase, Cassandra, Mongo DB)
Data discovery
QlikView 11, Qlik sense, Kibana, Kibi, Tableau
Data mining
Elasticsearch, ES-hadoop
Systemes d'exploitation
Linux, Microsoft
Methodologies
Agile, Cycle en V

FORMATIONS

Certification
Microsoft Certified: Azure Data Fundamentals DP-900

Diplomes
2014 Mastere recherche en Sciences et Techniques de l'Informatique Decisionnelle Institut superieur de gestion de Tunis
2011 Licence fondamentale en informatique de gestion Institut superieur de gestion de Tunis
2008 Etudes secondaires (Bac Maths)

Langues vivantes
Francais Courant
Anglais Tres bon (certification British Council C1, niveau « Advanced »)
Arabe langue maternelle
Expériences professionnelles
EXPERIENCES PROFESSIONNELLES

onepoint- MISSION CHEZ
EDENRED 05/2022 - 09/2022
Architecte Data
Architecte Data pour le projet Smarter au sein d’Edenred.
Le projet est une plate-forme unique ouverte multi-benefices (ticket restaurant, cheque cadeau, cheque vacances, allocation
bien-etre, allocation teletravail...) servant de socle commun pour une croissance, une innovation et une differenciation
rentables et durables.
Equipes projet
le projet est au sein de l'equipe des architectes pour le projet Smarter
Travaux realises
• Proposition et Conception de l’architecture d'exposition des donnees Smarter selon l'architecture Data Mesh
• Benchmarking des solutions techniques pour le referentiel client
• Benchmarking des solutions techniques pour les outils de data modeling
• Proposition de l'architecture de pipeline DevOps pour la data modeling
• Redaction des guidelines et des architectures sur Confluence
• Support pour trouver des solutions pour les blocages techniques
• Proposition des nouveaux outils et solutions techniques
• Interaction avec les equipes techniques et data d'Edenred
Environnement Technique
Langage : C#Outils & Technologies : Mongodb, Vertabelo, Azure Cloud, Azure data factory, Azure databricks
Methodologie: Agile SAFe

onepoint - MISSION CHEZ La
SOCIETE GENERALE 03/2021 – 04/2022
Architecte Big Data
Architecte Big Data pour le projet Mosaic au sein d’ITIM/SRO.
Le projet est la lutte contre la Fraude/ la cybercriminalite, bases sur des technologies innovantes de Machine Le*******a*******
big data. L’objectif est de continuer a ameliorer les performances du dispositif Mosaic sur les perimetres deja couverts et de
couvrir de nouveaux perimetres (nouveaux moyens de paiements, nouvelles entites etc.)Aussi de faire l'accompagnement de
migration Mosaic de l'ancienne platform Hortonworks vers la nouvelle platform Cloudera.
Equipes projet
le projet est au sein d’une entite pluridisciplinaire de Data Scientists, de Data engineers, de developpement Web/API JAVA,
d’experts en cybercriminalite et d’architectes.
Travaux realises
• Cadrage des besoins fonctionnels
• Proposition et Conception de l’architecture globale de la solution
• Redaction et mise a jour des DAUs
• Support pour trouver des solutions pour les blockages techniques
• Proposition des nouveaux outils et solutions techniques
• Interaction avec les equipes de projet Mosaic et de migration (GTS, ITIM, BSC)
Environnement Technique
Langage : Python, Java, Javascript, Scala
Outils & Technologies : Spark, Kafka, Hive, Hbase, HDFS, Elasticsearch, Kibana, Angular, Springboot, Hortonworks, Cloudera
Systeme : Linux

onepoint - MISSION CHEZ SFR Nov. 2020 - 02/2021
Chef de Projet
Chef de projet Technico-Fonctionnel Data d’un projet de refonte EAI par une architecture lambda nifi et Kafka. SFR souhaite
remplacer EAI webMethods pour plusieurs raisons :
• Mettre en place un socle plus innovant
• Competences WebMethods rares vis-a-vis des competences Nifi
• Version WebMethods actuelle ancienne dont un upgrade, tres couteux, serait necessaire
• L'obsolescence de l'EAI existant avec un faible volume d’evolutions
Les enjeux strategiques et innovants, de la refonte sont nombreux :
• Utiliser des technologies OpenSource performantes et attractives
• Creer un backbone Data innovent et performant
• Ajouter une couche de supervision pour anticiper et ameliorer le QOS
• Offrir par le biais d'un BAM (Business Activity Monitoring) une supervision des processus et activites metiers par des
tableaux de bord
• Limiter la dependance systeme par rapport aux solutions marche tres onereuses pour le run et les upgrades
Equipes projet
Equipe projet onepoint : Chef de projet Technico-Fonctionnel Data, Architecte, Coordinateur technique, 2 Developpeurs,
Directeur technique et Directeur DeliveryEquipe projet SFR : Sponsor IT, Core Team IT, Chefs de Projet IT et Equipe Back IT
Travaux realises
• Preparation Kick off :
o Preparation de document de presentation avec les details comme l’architecture
o Organisation des ateliers de preparation de kick off et des environnements techniques
• Preparation des ateliers flux, module administration, BAM et Architecture:
o Preparation a l’avance de l’atelier (les themes, l’organisation…)
o Preparation d’un PPT de presentation
o Preparation de CR apres l’atelier
• Redaction de document de specifications technico-fonctionnelles des flux de donnees
• Module de Business Activity Monitoring (BAM):
o Proposition des use cases
o Proposition de la demarche
o Etude fonctionnelle (axes d’analyses, mesures, KPI)
o Modelisation des donnees
o Redaction de document de specifications technico-fonctionnelles
o Accompagnement de client a la realisation des Dashboard
• Module administration (IHM):
o Redaction de document de specifications technico-fonctionnelles
o Etude de l'existant
o Restitution des nouveaux besoins
o Propositions des fonctionnalites, cinematique des ecrans, maquettes de zoning et maquettes detaillees
pour les ecrans
• Daily Meeting:
o Preparation d’un document PPT avec les points techniques d’actualite, l’avancement de traitement des
actions et Recap/Planning des ateliers
o Preparation de CR apres la reunion
o Animation de meeting
• Suivi et enrichissement de Backlog Jira
• Suivi d’avancement de planning
• Suivi d’avancement des actions techniques cote SFR et onepoint
Environnement Technique
Langage : Java, JavascriptOutils & Technologies : Nifi, Kafka, Elasticsearch, Kibana, Postgres, Kubernetes, Angular, Springboot,
QuarkusSysteme : Linux

OBJECTWARE- POC POUR
GROUPE BEL
Avr. 2020 - Aout 2020
Expert Data
Proof of Concept d’une plateforme d’analyse des donnees collectees des machines dans les usines pour l’equipe de
l’informatique industrielle.
Travaux realises
• Proposition de l’architecture technique de la solution
• Conception et developpement de la solution selon les etapes suivantes :
▪ Installation des outils (Python, Elasticsearch, Kibana)
▪ Collecte des donnees a partir de l’API PI web de Osisoft par des scripts python
▪ Modelisation de dataset NEP (index) qui contient des informations sur les differentes etapes des
nettoyages des machines
▪ Transformation et croisement des donnees
▪ Indexation des donnees sur Elasticsearch par la librairie Python elasticsearch-py
▪ Restitution des KPI et la creation des data visualisations par des dashboards Kibana
• Redaction des specifications techniques du POC
Environnement Technique
Langage : PythonOutils & Technologies : Elasticsearch, Kibana, PI Web API OsisoftSysteme : Windows

OBJECTWARE-MISSION CHEZ
LA SOCIETE GENERALE Oct. 2019 - Mars 2020
Chef de projet DataLab
• Le projet de DataLab SIRA vise tous les developpeurs et utilisateurs d’outils d’analytics chez RISQ :
o Les differentes equipes de modelisation RISQ pour les besoins
o Les equipes transverses du BSC pour realiser certains developpements ou pour donner des solutions deja
sur etageres
• Le projet vise a offrir a tous les utilisateurs des departements RISQ:
o un environnement de developpement des outils analytics repondant aux besoins internes et d’audit.
o et a fournir de maniere securisee, aux utilisateurs bancaires autorises (RISQ et eventuellement lignes
metier), les moyens de les utiliser, de partager les resultats et de collaborer grace a un portail.
Equipes projet
BSC ARS de la Societe ******* metiers RISQFournisseur d’infrastructure OSMOSELes architectes Fonctionnelle et
Technique
Travaux realises
• Pilotage de projet
• Echange et cadrage des besoins metiers RISQ
• Documenter l'ensemble des etapes du projet
• Preparer, organiser et animer l’ensemble des reunions
• Accompagner les data Scientiste sur les aspects techniques de projet
• Amelioration de l’environnement technique (l’integration des nouvelles technologies)
• Proposition des nouveaux outils et solutions techniques
• Accompagner les differents intervenants dans les etapes de la mise en production des uses case (exemple : l’use case d’indicateur de vulnerabilite climatique)
• Definir les processus de mise en production, des changements et des incidents
• Participation au POC des outils Dataiku et Alteryx
ENVIRONNEMENT TECHNIQUE
Langages : R, PythonOutils & Technologies: RStudio PRO, Rshiny, Shiny Server Pro, Anaconda, Jupyter, SAS Viya, Alteryx,
Dataiku, Grafana, gitSysteme : Linux

AMETIX- MISSION CHEZ LA
POSTE
Fev. 2019 - Sept. 2019
Data Engineer
• SMARTLAKE : Le but de ce projet est d’avoir une data lake de la branche numerique selon les etapes decrites cidessous :
o Ingestion des donnees La Poste en mode streaming et batch
o Stockage, Traitement, Enrichissement et Cryptage des donnees
o Exposition des donnees a travers des API, des dataset et les outils data visualisation
• CARTOGRAPHIE DATA LAKE : Le but de ce projet est d’avoir un catalogue de donnees pour avoir plus de visibilites
sur les donnees de SmartLake. Aussi pour tracer le cycle de vie de donnees, d’avoir l’historique des modifications,
leurs sources et le Data lineage.
Equipes projet
equipe des developpeurs Big Data de la branche numerique de La Poste
Travaux realises
• Developpements techniques des usages de datalake (ingestion, preparation/exposition des donnees)
• Realisation de POC de cartographie data avec des scripts python et l’outil Apache Atlas
ENVIRONNEMENT TECHNIQUE :
Langages : Scala, PythonOutils & Technologies: Kafka, Spark, Airflow, Hadoop HDFS, Hue, Zeppelin, elasticsearch, kibana,
Tableau, Dataiku, Grafana, Ansible, Jankins, git, Search Guard, Mesosphere DC/OS, Apache AtlasSysteme : Linux

GFI INFORMATIQUE Mars 2018 - Jan. 2019
Ingenieur BIG DATA/Data Scientiste (03/18 – 08/18) Responsable des Activites Big Data, Data
Science et Intelligence Artificielle (09/18 –01/19)
• SMART PARKING: Le but de ce projet est de concevoir et de developper un systeme d’information capable de gerer
et de predire la disponibilite des places de parking.
• E-satisfaction: Le but de ce projet est de concevoir et de developper un systeme d’information capable de collecter
et analyser la satisfaction client pour les services et produits fournir par l’entreprise. Aussi de faire le profiling clients
et predire leurs besoins
• Chatbot RH: Le but de ce projet est de concevoir et de developper un chatbot qui permettre de trouver rapidement
les meilleurs profils pour repondre aux besoins d'un client. Aussi pour amelioration de la qualification des candidats
en base de donnees.
o Module d’upload des CVs:
▪ La connexion au service mail
▪ Le telechargement des de CV principalement a partir de l’adresse e-mail
▪ L’automatisation de l’importation des CVs d'apres l’e-mail vers la base
▪ L’importation manuelle simple et/ou multiple des CVs
▪ Stockage des CV dans des dossiers organises
▪ Detecter lors de l’upload s’il s’agit d’un CV format pdf ou bien CV format image
▪ Detecter lors de la recuperation des CVs d'apres l’e-mail s’il s’agit d’un CV ou bien une lettre de
motivation
▪ Detecter la redondance lors de l’upload d’un CV, s’il deja indexe alors indexer la nouvelle version
▪ Un volet pour telecharger manuellement les CVs d'apres l’e-mail pour un besoin particulier (par
exemple les stages, un concours, etc,..
o Module de Text Mining :
▪ Conversion de CV de pdf/word vers format text
▪ Transformation de text
▪ Extraction des donnees utiles tel que non, prenom numero de telephone les urls, e-mail etc…
o Module de recherche :
▪ Indexation des donnees sur un moteur de recherche
▪ Faire la recherche par des filtres (Recherche par Date, Recherche par e-mail, Recherche par
entreprise…)
▪ Interaction avec le service mail Outlook, lors du clic sur l’e-mail du candidat, ouvrir l’interface
directe du service mail
o Module de L’API Chatbot :
▪ Training de bot avec des phrases et des mots cle necessaires pour lancer des serach
▪ Interaction avec L’API de Chatbot
o Module de Machine le*******a*******
▪ Affecter des scores aux Cvs selon des criteres
▪ Faire la classification des Cvs
▪ Faire le job matching automatique avec Machine le*******a*******
▪ Calcul des KPI et faire des analyses sur les profiles des candidats
Equipes projet
membre de l’equipe IoT dans le pole R&D, puis j’ai evolue vers la responsabilite d’une nouvelle entite Big Data, Data Science
et IA
Travaux realises
• Contribution technique sur les projets Iot (preparations des donnees, calcul des KPI, Analyse, prediction)
• Gestion de l'equipe de la nouvelle entite
• Animation des reunions
• Redactions des solutions techniques dans les AO
• Pilotage technique des projets
• Architecture applicative
• Suivi de cycle de vie des differents produits
• Documentations
• Communication sur l’avancement des projets
• Encadrements des etudiants
• Proposition des nouveaux projets dans le domaine de IA, Big data et Data Science
ENVIRONNEMENT TECHNIQUE :
Langages : CQLSH, Java, python, JavaScriptOutils & Technologies : Plateforme IoT KAA, Spark, Spark Mlib, Cassandra,
Zeppelin, Django, Angular js, Mongo db, NLTK, elasticsearch, kibana, Nodejs, Express.js, React, api.aiSysteme : Linux

ORANGE TUNISIE Oct. 2015 - Mars 2018
Data Scientiste BI/Big Data
Le projet BIG DATA consiste a gagner en productivite et ameliorer la qualite de service Orange a travers la mise en place
d’une plateforme Big Data.Mise en place de l’environnement BIG DATA Front Office Pre-PROD :Installation de
l’environnement front office (installation Elastic stack et Python), configuration des composants Hadoop (HCatalog, HBase
REST interface...), installation des connecteurs/librairies (ES-Hadoop, Package Python : Django, starbase…) requis pour la
realisation des POC et installation des outils de monitoring (Plugin de monitoring de cluster Elasticsearch). Conception et
realisation des cas d’utilisation suivants:
• La mise une place d'un outil de monitoring et supervision de traitement Hadoop (logs tracking) :
o Collecter les logs Hadoop (Yarn resource manager, yarn namenode, mapred-historyserver (log des jobs
mapreduce), hdfs-namenode, hive, oozie, pig, spark...) avec logstach.
o Parsing, transformation et injection a travers logstash et indexation au niveau d’elasticsearch.
o Visualisation avec Kibana.
• Controle de la qualite reseau (QoS) : Identification des causes principales des incidents reseaux :
o Collecte et injection des donnees des sondes reseau (Otarie, Astelia) contenant les details de navigation
reseau (localisation cellule, duree appel /session, debit, volume upload/download…)
o Transformation et enrichissement des donnees pour l’indexation via Elasticsearch (avec des scripts
PIG/Spark) : correspondance geographique, jointure avec le referentiel client, partitionnement par date de
l’evenement
o Optimisation des performances d’indexation suivant la taille des donnees et modelisation de l’index
(nombre des primary / replicas shards, proprietes d’indexation, mapping des champs)
o Indexation des donnees collectees suivant les axes d’analyse determines.
o Restitution des KPIs via des tableaux de bord: Kibi, kibana et application web exploitant l’API REST
d’elasticsearch.
• Construction d’une vue 360° sur les abonnes d’Orange Tunisie :
o Collecte des donnees contenant les details des evenements (appel, sms, recharge, achat d’option…) et les
reclamations des abonnes provenant du CRM.
o Croisement des donnees collectees avec le referentiel client contenant des informations telles que le type
de contrat (prepaye, postpaye), l’offre, la date d’activation…
o Stockage des donnees pre-calculees dans HBase par famille (consommation – contrat – reclamations –
geolocalisation) a travers une table externe Hive.
o Restitution des incidents reseaux indexes sur Elasticsearch et des donnees stockees sur HBase via
l’interaction web service des APIs REST
o Realisation d’analyses avancees afin de :
▪ Prevoir les eventuels churns : les abonnes susceptibles de quitter le reseau Orange.
▪ Repartir les abonnes selon des axes bien definis (age, sexe, region, offre…)
▪ Calculer la base active : la base des abonnes actifs (ayant au moins un evenement reseau durant
une periode bien determinee).
▪ Etudier les High usage des offres par categorie abonne.
• Social network – friend of friend: Strategie de marketing cible a travers l’identification du dominant au sein d’un
groupe d’abonnes et l’attribution des scores par type de relation (ami intime, famille...):
o Collecte des details des appels depuis la source MSC (date evenement, duree appel, localisation...)
o Agregation et identification des relations a travers Hive en se basant sur des criteres de repartition de
groupe.
o Indexation sur elasticsearch et attribution du score par type de relation
o Restitution via Kibi et determination de dominant a travers les scores affectes
o La double jointure des indexes et determination des relations pouvant avoir lieu entre 2 abonnes n’ayant
pas effectue d’appel (suivant le principe de friend of friend)
• Detection de Fraude en temps reel : Mise en place d’un systeme de detection de fraude par Simbox suivant des
criteres dynamiques :
o Preparation des criteres de detection, identification des sources (MSC, referentiel client, mapping
geographique, blacklistes) et determination des transformations a faire.
o Preparation du modele au niveau de la machine le*******a*******
Hdfs.
o Import des donnees via Kafka et Flume en mode streaming.
o Traitement des transformations et enrichissement au niveau Spark streaming.
o Indexation au niveau Elasticsearch et restitution des valeurs finales du modele (Population des fraudeurs
confirmes).
• Analyse du marche B2B : Identification des causes principales des churns et revision des offres proposees aux grands
comptes :
o Etude de la retention des donnees et collecte des details des evenements : appel/recharge, de la
facturation/recouvrement et des contrats/engagements du groupe client B2B.
o Traitement des transformations et enrichissement au niveau Spark streaming.
o Preparation du modele au niveau de la machine le*******a*******
Hdfs : output prediction des churns a travers l’analyse comportementale des clients B2B.
o Validation du modele avec des clients de training Data et test Data : Identification des taux de precision et
de la matrice de confusion.
o Chargement du modele et stockage de l’output de la prediction dans HBase par famille de clients B2B
(grands comptes, conventions…) a travers une table externe Hive.
o Restitution des donnees stockees sur HBase via l’interaction web service des APIs REST sous forme d’une
entite a integrer dans la vue 360° d’Orange Tunisie.

Equipes projet
Membre de l’equipe front office du projet Big Data (equipe composee de 10 personnes)
Travaux realises
• Installation et configuration
• Identification des sources des donnees
• Modelisation :
o le sizing et le mapping des index Elasticsearch
o La repartition des tables HBase par des familles
• Integration des connecteurs (ES-haddop)
• Indexation sur Elasticsearch (par des scripts PIG/HIVE/SPARK)
• Visualisation sur Kibana
• Analyse (syntaxique et semantique) des donnees Astelia et Otarie
o Comprehension des donnees
o Identification des cas d’utilisation (MOC, MTC, SMS, PS, drop call, degradation de qualite de reseaux par
exemple de 3G vers 2G, Handover, phenomene de ping pong, IVR, USSD…)
• le stockage des donnees pre-calculees sur les tables Hbase (par des tables externe Hive)
• Agregation des donnees sur des tables Hive
• Developpement des applications web Django (Python) et AngularJs qui invoque les REST API d’Elasticsearch et Hbase
pour la presentation des KPI et les details sur les clients
• Preparation des criteres et Identification des sources des donnees pour les modeles de machine le*******a*******
• Preparation du modele au niveau de la machine le*******a*******
ENVIRONNEMENT TECHNIQUE :
Langages : Python, PIG latin, HiveQL, ScalaOutils & Technologies : Django, AngularJS, bootstrap, Spark, Hive, Pig, Hbase,
Flume, Sqoop, Avro, Ooozie, Json, Cloudera 5.4, ElasticSearch, Kibana, KibiSystemes : Linux
Les projets BI qui correspond aux demandes des equipes metiers (commercial, marketing…) tel que la mise en place des
nouvelles offres ou options, recharge, roaming, achats, facturation…

Equipes projet
Membre de l’equipe front office des projets BI (vis-a-vis BI pour le departement commercial)
Travaux realises
• Collecter et cadrer le besoin des metiers
• Rediger les specifications fonctionnelles et techniques
• Concevoir l’architecture globale de la solution a implementer
• Developper la solution job/Reporting/Dashboard
• Assister les etapes du cycle de vie de la solution : test integrations, gestion des anomalies, mise en production et
exploitation
• Assurer un support pour les reclamations metiers
• Assurer un support au metier en phase de VABF
ENVIRONNEMENT TECHNIQUE :
Langages : SQLOutils &Technologies : Oracle 10g, Qlikview 11, Qlik SenseSystemes : Microsoft
Langues étrangères
Bilingue : Anglais