Connecting...

W1siziisimnvbxbpbgvkx3rozw1lx2fzc2v0cy9syxdyzw5jzs1oyxj2zxkvanbnl2pvyl9kzwzhdwx0x2jhbm5lci5qcgcixv0

Data Engineer API

Data Engineer API

Job Title: Data Engineer API
Contract Type: Contract
Location: Paris, Île-de-France
Industry:
Salary: Negotiable
Start Date: ASAP
Reference: 2503lala_1616698557
Contact Name: Lala Ndiaye
Contact Email: l.ndiaye@lawrenceharvey.com
Job Published: March 25, 2021 18:55

Job Description

Mission / Freelance / France / Data Engineer API / APIGEE

Lawrence Harvey recherche pour le compte de son client un Data Engineer Apigee pour une mission longue durée

Pas de sous-traitance, merci.

Démarrage Avril

Mission longue

Paris

Contexte de la mission

L'objectif du poste Data Engineer API dans le service IS&T Industrialisation Cloud & Data se décline en deux missions rassemblées autour de sujets de digitalisation (Data Platform et API) :

  • Le premier objectif est d'accompagner les BUs / le corporate dans la mise en place et l'exploitation de leur Data Platform. Cela se traduit par le recueil des besoins et implémentation ou accompagnement à l'implémentation de pipelines d'acquisition de données, et en particulier le développement de connecteurs vers les outils métier du groupe (via API). Ces actions sont réalisées sur GCP (Data Fusion).

  • Le deuxième objectif est d'accompagner les BUs / les projets corporates sur les sujets API management autour de la solution Apigee et GCP Cloud Endpoint. Un accompagnement en termes d'architecture, de conception et d'administration de la plate-forme d'API Management doit être assuré par le candidat, il est également nécessaire d'être garant de la bonne mise en application de la Policy API auprès des projets.

Objectifs de la mission et tâches

Data Platform :

▪ Intégration des données dans la data platform GCP ainsi que le monitoring de l'intégration de ces données. Compréhension du fonctionnement des API REST pour l'implémentation des connecteurs (développement de plugins Java pour Data Fusion).

▪ Compréhension de la modélisation des résultats dans Bigquery afin de fournir des conseils pertinents et/ou détecter la cause d'anomalies dans les résultats. ▪ Participation à la compréhension des problématiques métiers et opérationnelles afin d'implémenter les pipelines de façon optimale (tous métiers : fonctions supports et opérationnels) ▪ Participation à la définition de l'implémentation / architecture lors de la mise en place de nouveaux pipelines

▪ Corrections/évolutions sur les pipelines existants. Etre capable d'apporter des modifications sur des éléments développés par d'autres. Etre capable d'analyser des situations d'anomalie et de remonter le fil d'analyse jusqu'à la détection de la cause racine de l'anomalie.

▪ Participation aux rituels agiles de l'équipe Data Platform (SCRUM). ▪ Maintien de la documentation fonctionnelle et technique. API Managment :

▪ Maîtriser parfaitement la policy et la guideline groupe concernant la stratégie API et API Management ▪ Etre référent au sein de l'équipe Engineering sur le sujet APIs de manière générales et notamment sur la solution ApiGee et les différentes stratégies de déploiements et de gouvernances sur le sujet

▪ Etre force de proposition pour bâtir notre catalogue de services autour des APIs

▪ Participation aux rituels agiles de l'équipe Data Platform (SCRUM).

▪ Maintien de la documentation fonctionnelle et technique.

▪ Administrer la plateforme d'API ▪ Former les équipes aux notions APIs Management et les accompagner lors des premières itération de conception ▪ Fournir du support auprès des équipes projets autour du sujet API management (AWS API Gateway, GCP Cloud Endpoint et Apigee)

▪ Pouvoir mettre adapter / faire évoluer la chaine CICD groupe pour le déploiement des projets API management (AWS API Gateway, GCP Cloud Endpoint et Apigee)

Livrables

Compétences

Maîtrise du build et de l'exploitation en environnement "Big Data" / ETL Maîtrise de Java et SQL. Python est un plus.

Maîtrise des principes des APIs (REST, JWT, OAuth, HTTP, Websocket, GraphQL, API Gateway, API Management etc.) Connaissance des produits Google Cloud Platform, et notamment Google Big Query. Data Fusion est un plus.

Les connaissances en réseaux (VPC, VPN, routage…) sont un plus.

Au-delà de solides compétences techniques, ce poste requiert une culture informatique large (développement, ETL, data, API, réseau…), une capacité d'écoute et un bon relationnel pour accompagner les clients, et une capacité à prendre du recul pour adopter les meilleures solutions.

Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l.ndiaye@lawrenceharvey.com (Lala N'diaye) et je vous recontacterai pour vous donner plus de détails sur la mission.

N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées.

Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)