
CV informaticien n°230127D001
Profil :
Développeur - né(e) en 1970
Mobilité :
Toutes les régions
Compétences techniques
Expert
Senior
Junior
Notions
JENKINS

APACHE HADOOP

GIT

SCALA

APACHE SPARK

Etudes et formations
COMPETENCES
Outils de modelisation UML, Power AMC
Systemes dexploitation Windows, Unix, Linux (Ubuntu, Mandriva, Fedora)
Langages Scala, Java, Shell, C, SQL, PL/SQL,.Net Core
Framework Hadoop, Spark
CI/CD SonarQube, Maven, Git, Jenkins
Serveurs HTTP Apache
Serveurs dapplications Tomcat
IDE Intellij, Eclipse, Visual Studio, Netbeans
Outils de tests Junit
SGBDs Oracle (9i-10g-11g), My SQL, SQL Server 2000, PostgreSQL
Outils SGBD Hbase, Cassandra, Hive, Elasticsearch, Oracle Designer, SQL Developper
Integration Git, Jenkins, Maven, Gradle
Qualimetrie Sonar, SonarQube, SonarLint
Outil de suivi dincidents JIRA, Mantis
COMPETENCES METHODOLOGIQUES
Agile (Scrum, Safe)
DIPLOMES ET FORMATIONS
2017 Master 2 en Systemes et applications reparties, Universite Pierre et Marie Curie(Paris VI)
2015 LicenceInformatique, UniversitePierrer et Marie Curie(Paris VI)
2010 LicenceInformatique, Universite de Conakry(Guinee)
LANGUES ETRANGERES
Anglais Technique
Outils de modelisation UML, Power AMC
Systemes dexploitation Windows, Unix, Linux (Ubuntu, Mandriva, Fedora)
Langages Scala, Java, Shell, C, SQL, PL/SQL,.Net Core
Framework Hadoop, Spark
CI/CD SonarQube, Maven, Git, Jenkins
Serveurs HTTP Apache
Serveurs dapplications Tomcat
IDE Intellij, Eclipse, Visual Studio, Netbeans
Outils de tests Junit
SGBDs Oracle (9i-10g-11g), My SQL, SQL Server 2000, PostgreSQL
Outils SGBD Hbase, Cassandra, Hive, Elasticsearch, Oracle Designer, SQL Developper
Integration Git, Jenkins, Maven, Gradle
Qualimetrie Sonar, SonarQube, SonarLint
Outil de suivi dincidents JIRA, Mantis
COMPETENCES METHODOLOGIQUES
Agile (Scrum, Safe)
DIPLOMES ET FORMATIONS
2017 Master 2 en Systemes et applications reparties, Universite Pierre et Marie Curie(Paris VI)
2015 LicenceInformatique, UniversitePierrer et Marie Curie(Paris VI)
2010 LicenceInformatique, Universite de Conakry(Guinee)
LANGUES ETRANGERES
Anglais Technique
Expériences professionnelles
EXPERIENCES PROFESSIONNELLES
BNP PARIBAS DEPUIS SEPTEMBRE 2020
DATA ENGENEER
PRESTATIONSREALISEES Vision360 Corporate Batch (Projet en Scala)
Application de rationalisation des donnees rp permettant de consolider les
donnees rp , d'offrir un acces simple a la donnee pour effectuer une recherche
simple et efficace d'un clientcorporate
Echange avec le metier et les BA sur des us a developper.
Developpement des differentes us du projet provenant du besoin metier
Amelioration de la couverture de test dans l'application
Migration des donnees de l'application Cview vers la V360 corporate
Reprise du calcul du perimetre de Cview dans l'application V360 Corporate
Participation aux differentes ceremonies agiles(daily, retro, sprint review, sprint
planning)
Migration de l'application V360 de la Plateforme d'Integration Continue(PIC)
ancienne vers la nouvelle Plateforme d'Integration Continue du groupe BNP
Amelioration du temps de traitement du workfow en production
Presentation de l'application aux collegues et accompagnement dans la montee en
competence
Proposition aux membres du projets de multiplier les competences par projet
Participation aux revues de code, Merge et creation de release pour la MEP.
Installation en environnement d'Integration, de Qualification et participe avec les
iops
Vision360 retail Batch (Projet en Scala)
Consolidation des donnees rp pour les clients retails
Prise en main de l'application.
Realisation de l'evolution de la procedure de purge des donnees
Amelioration de la couverture de test dans l'application
Ajout de donnees a agreger dans l'application
Migration de l'application vers les donnees DIS(nouvelle source)
Migration de l'application vers la nouvelle machine virtuelle
Projet de purge de donnees (Projet script shell)
Prise en main des specifications de l'application.
Developpement des scripts de purges
Mise en place de la chaine de CI/CD
Installation et test en environnement d'integration
Mise en place du document d'installation
Streaming-rp-V0(Projet en scala)
Consolidation des donnees rp en temps reel avecakka-stream-kafka
Creation des nouvelles transformer.
Evolutions des transformer existants pour ajouter de nouvelles donnees
Migration de l'application vers le cloud(IBM Cloud)
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Hadoop, Spark, Scala, Oozie, script shell, Hue, akka-stream-kafka, IBM Cloud
Git, Jenkins,C3pO,Cassandra, Hive, DevCenter, DataStax Studio
Jira, Confluence
METHODES Agile
DIRECTION GENERALE DES DOUANES ET DROITS INDIRECTS OCTOBRE 2019 - AOUT 2020
DATA ENGENEER
PROJET OU CONTEXTE Plateforme d'integration des donnees douanieres dans le datalake
PRESTATION REALISEE Mise en place des scripts generique d'ingestion des donnees douanieres
Extraction des donnees depuis la zone de partage
Concatenation des donnees
Deplacement des donnees sur le HDFS
Compression des fichiers json
Transformations en csv
Compression des csv
Generation des tables hives
Mise en place des scripts specifique pour une source de donnees(ics, banaco)
Creation de la chaine d'ordonnancement des differents scripts
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Hortonworks-Cloudera
Hadoop, Hive, Spark, Scala, Java, Shell,
Git, Jenkins, Mantis
METHODES Scrum
EDF DIRECTION COMMERCE MARS 2018- SEPTEMBRE 2019
DEVELOPPEUR BIG DATA, INFORMATICA, API JAVA, DEVOPS
PROJET OU CONTEXTE VEGA
Mise en place d'une vision 360 de l'ensemble des objets pour ******* conseiller eDF
afin de trouver le plus rapidement possible l'information a echanger avec le
client(client grand compte) au telephone.
PRESTATION REALISEE Participer a la mise en place des solutions techniques et des ateliers et reunions
agiles a savoir:
Mise en place d'une solution de sauvegarde des donnees Salesforce dans
Hbase(Init Vega)
Extraction des donnees Saleforce pour le projet Initvegaa travers
Informatica
API JAVA: Evolution pour les nouveaux besoins clients, Correction
d'anomalies de production, Mise en place de test automatique, Mise en place
de sonar pour la qualite du code
Initialisation des donnnees pour la Vision 360/Streamming des
donnees pour la Vision 360: Mise en place de l'indexation des documents
sur ElasticSearch, Mise a jour sur spark/Scala pour prendre en compte les
nouveaux besoins clients(gestion de lovs pour la vue360 par exemple)
Ateliers Agiles SAFE(PI Planning, Daily meeting, retrospectives de sprint,
sprint planning,...)
Mise en place Devops(Jenkins, Sonar, Git,...)
Faire monte en competence sur toutes les briques du projet des nouveaux
arrivants dans l'equipe
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Big Data (Hadoop, Hbase, Spark, Scala, Kafka, ElasticSearch, Kibana,
Elasticsearchhead, Sens, Informatica)
API (Java JEE, Spring Boot)
Sonar,SonarQube, SonarLint,Git, Jenkins,Maven, Cucumber
SalesForce (SFDC)
METHODES SAFe
EDF DIRECTION PRODUCUTION NUCLEAIRE FEVRIER 2017- FEVRIER 2018
DEVELOPPEMENT FULL STACK DES FONCTIONNALITES DE L'APPLICATION ORGE.
PROJET OU CONTEXTE ORGE
Analyse d'exhaustivite des regles d'exigences pour la maintenance et le suivi des
prescriptions au niveau des centrales nucleaires
PRESTATION REALISEE Mise en place de solution permettant d'alimenter depuis des fichiers plats, les
couches BigData du client EDF (Hadoop, ElasticSearch)
Mise en place de services Elasticsearch pour la consultation des donnees en
live au besoins de l'application ORGE.
Mise en place de plusieurs pocs sur Hadoop, Hive, Sqoop, Elasticsearch,
PostgreSQL
Prendre en charge le developpement de fonctionnalites de l'application ORGE
de bout en bout (Back et Front ).
Resolution de toutes les annomalies/evolutiosn mentionnees par le Client EDF
Mise en place de plusieurs batchs: synchronisation des donnees Elasticsearch
et PostgreSQL, initiation des donnees de reference
Developper les programmes d'injection en masse de donnees metier et les
documenter
Maintien des batchsBig Data(Spark, Scala) mise en place par un expert pour
la maintenance et la gestion de l'evolution des besoin du client EDF
Gestion de la configuration Git du code source et Jenkins pour l'integration
continue de l'applicaiton ORGE
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Hadoop, Elasticsearch, Elasticsearchhead, Sens, Kibana, Hive, Sqoop,
Spark, Scala, Java EE , Spring, Angularjs 1, Git, Jenkins, PostgreSQL
METHODES Scrum
ETI SA MARS 2012- JUILLET 2013
CONCEPTEUR/DEVELOPPEUR.
PROJET OU CONTEXTE MULTIBIO
progiciel d'impression de documents biometriques (passeport, carte sejour,
permis)
PRESTATION REALISEE
Conception et developpement des modules:
scan des documents justificatifs
capture de la photo
capture de l'iris
Integration de ces differents modules dans le systeme MultiBio
Mise a jour du schema de la base de donnees en consequence
Participation a la semaine des nouvelles technologies
presentation du projet MultiBio au visiteur
realisation des demos du projet MultiBio au visiteur
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Visual Studio 2010,
Oracle
Sql Server
Imprimante passeport
Imprimante badge
BadgeMaker
METHODES Scrum
BNP PARIBAS DEPUIS SEPTEMBRE 2020
DATA ENGENEER
PRESTATIONSREALISEES Vision360 Corporate Batch (Projet en Scala)
Application de rationalisation des donnees rp permettant de consolider les
donnees rp , d'offrir un acces simple a la donnee pour effectuer une recherche
simple et efficace d'un clientcorporate
Echange avec le metier et les BA sur des us a developper.
Developpement des differentes us du projet provenant du besoin metier
Amelioration de la couverture de test dans l'application
Migration des donnees de l'application Cview vers la V360 corporate
Reprise du calcul du perimetre de Cview dans l'application V360 Corporate
Participation aux differentes ceremonies agiles(daily, retro, sprint review, sprint
planning)
Migration de l'application V360 de la Plateforme d'Integration Continue(PIC)
ancienne vers la nouvelle Plateforme d'Integration Continue du groupe BNP
Amelioration du temps de traitement du workfow en production
Presentation de l'application aux collegues et accompagnement dans la montee en
competence
Proposition aux membres du projets de multiplier les competences par projet
Participation aux revues de code, Merge et creation de release pour la MEP.
Installation en environnement d'Integration, de Qualification et participe avec les
iops
Vision360 retail Batch (Projet en Scala)
Consolidation des donnees rp pour les clients retails
Prise en main de l'application.
Realisation de l'evolution de la procedure de purge des donnees
Amelioration de la couverture de test dans l'application
Ajout de donnees a agreger dans l'application
Migration de l'application vers les donnees DIS(nouvelle source)
Migration de l'application vers la nouvelle machine virtuelle
Projet de purge de donnees (Projet script shell)
Prise en main des specifications de l'application.
Developpement des scripts de purges
Mise en place de la chaine de CI/CD
Installation et test en environnement d'integration
Mise en place du document d'installation
Streaming-rp-V0(Projet en scala)
Consolidation des donnees rp en temps reel avecakka-stream-kafka
Creation des nouvelles transformer.
Evolutions des transformer existants pour ajouter de nouvelles donnees
Migration de l'application vers le cloud(IBM Cloud)
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Hadoop, Spark, Scala, Oozie, script shell, Hue, akka-stream-kafka, IBM Cloud
Git, Jenkins,C3pO,Cassandra, Hive, DevCenter, DataStax Studio
Jira, Confluence
METHODES Agile
DIRECTION GENERALE DES DOUANES ET DROITS INDIRECTS OCTOBRE 2019 - AOUT 2020
DATA ENGENEER
PROJET OU CONTEXTE Plateforme d'integration des donnees douanieres dans le datalake
PRESTATION REALISEE Mise en place des scripts generique d'ingestion des donnees douanieres
Extraction des donnees depuis la zone de partage
Concatenation des donnees
Deplacement des donnees sur le HDFS
Compression des fichiers json
Transformations en csv
Compression des csv
Generation des tables hives
Mise en place des scripts specifique pour une source de donnees(ics, banaco)
Creation de la chaine d'ordonnancement des differents scripts
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Hortonworks-Cloudera
Hadoop, Hive, Spark, Scala, Java, Shell,
Git, Jenkins, Mantis
METHODES Scrum
EDF DIRECTION COMMERCE MARS 2018- SEPTEMBRE 2019
DEVELOPPEUR BIG DATA, INFORMATICA, API JAVA, DEVOPS
PROJET OU CONTEXTE VEGA
Mise en place d'une vision 360 de l'ensemble des objets pour ******* conseiller eDF
afin de trouver le plus rapidement possible l'information a echanger avec le
client(client grand compte) au telephone.
PRESTATION REALISEE Participer a la mise en place des solutions techniques et des ateliers et reunions
agiles a savoir:
Mise en place d'une solution de sauvegarde des donnees Salesforce dans
Hbase(Init Vega)
Extraction des donnees Saleforce pour le projet Initvegaa travers
Informatica
API JAVA: Evolution pour les nouveaux besoins clients, Correction
d'anomalies de production, Mise en place de test automatique, Mise en place
de sonar pour la qualite du code
Initialisation des donnnees pour la Vision 360/Streamming des
donnees pour la Vision 360: Mise en place de l'indexation des documents
sur ElasticSearch, Mise a jour sur spark/Scala pour prendre en compte les
nouveaux besoins clients(gestion de lovs pour la vue360 par exemple)
Ateliers Agiles SAFE(PI Planning, Daily meeting, retrospectives de sprint,
sprint planning,...)
Mise en place Devops(Jenkins, Sonar, Git,...)
Faire monte en competence sur toutes les briques du projet des nouveaux
arrivants dans l'equipe
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Big Data (Hadoop, Hbase, Spark, Scala, Kafka, ElasticSearch, Kibana,
Elasticsearchhead, Sens, Informatica)
API (Java JEE, Spring Boot)
Sonar,SonarQube, SonarLint,Git, Jenkins,Maven, Cucumber
SalesForce (SFDC)
METHODES SAFe
EDF DIRECTION PRODUCUTION NUCLEAIRE FEVRIER 2017- FEVRIER 2018
DEVELOPPEMENT FULL STACK DES FONCTIONNALITES DE L'APPLICATION ORGE.
PROJET OU CONTEXTE ORGE
Analyse d'exhaustivite des regles d'exigences pour la maintenance et le suivi des
prescriptions au niveau des centrales nucleaires
PRESTATION REALISEE Mise en place de solution permettant d'alimenter depuis des fichiers plats, les
couches BigData du client EDF (Hadoop, ElasticSearch)
Mise en place de services Elasticsearch pour la consultation des donnees en
live au besoins de l'application ORGE.
Mise en place de plusieurs pocs sur Hadoop, Hive, Sqoop, Elasticsearch,
PostgreSQL
Prendre en charge le developpement de fonctionnalites de l'application ORGE
de bout en bout (Back et Front ).
Resolution de toutes les annomalies/evolutiosn mentionnees par le Client EDF
Mise en place de plusieurs batchs: synchronisation des donnees Elasticsearch
et PostgreSQL, initiation des donnees de reference
Developper les programmes d'injection en masse de donnees metier et les
documenter
Maintien des batchsBig Data(Spark, Scala) mise en place par un expert pour
la maintenance et la gestion de l'evolution des besoin du client EDF
Gestion de la configuration Git du code source et Jenkins pour l'integration
continue de l'applicaiton ORGE
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Hadoop, Elasticsearch, Elasticsearchhead, Sens, Kibana, Hive, Sqoop,
Spark, Scala, Java EE , Spring, Angularjs 1, Git, Jenkins, PostgreSQL
METHODES Scrum
ETI SA MARS 2012- JUILLET 2013
CONCEPTEUR/DEVELOPPEUR.
PROJET OU CONTEXTE MULTIBIO
progiciel d'impression de documents biometriques (passeport, carte sejour,
permis)
PRESTATION REALISEE
Conception et developpement des modules:
scan des documents justificatifs
capture de la photo
capture de l'iris
Integration de ces differents modules dans le systeme MultiBio
Mise a jour du schema de la base de donnees en consequence
Participation a la semaine des nouvelles technologies
presentation du projet MultiBio au visiteur
realisation des demos du projet MultiBio au visiteur
ENVIRONNEMENT
TECHNIQUE OU OUTILS
Visual Studio 2010,
Oracle
Sql Server
Imprimante passeport
Imprimante badge
BadgeMaker
METHODES Scrum