Connecting...

W1siziisimnvbxbpbgvkx3rozw1lx2fzc2v0cy9syxdyzw5jzs1oyxj2zxkvanbnl2pvyl9kzwzhdwx0x2jhbm5lci5qcgcixv0

Data Engineer

Data Engineer

Job Title: Data Engineer
Contract Type: Contract
Location: Île-de-France, France
Industry:
Salary: Negotiable
Start Date: ASAP
Reference: 1105lala_1620722251
Contact Name: Lala Ndiaye
Contact Email: l.ndiaye@lawrenceharvey.com
Job Published: May 11, 2021 09:37

Job Description

Mission / Freelance / France / Data Engineer / Ile de France

Lawrence Harvey recherche pour le compte de son client plusieurs profils Data Engineer pour une mission longue durée pour un client basé en Ile de France

Pas de sous-traitance, merci.

Démarrage ASAP

Mission de 6 mois renouvelables

Télétravail

Notre client est à la recherche de plusieurs profils Data Engineer avec expérience en production et architecture.

Mission :

1/Comprendre les besoins du modèle de données: o Comprendre avec BCG, le travail effectué et analyser les différents documents formalisés lors de l'inflexion / incubation. o Identifier les Inputs, les outputs et les règles de nettoyage o Définir le facteur de réussite par dataset aligné sur les exigences de l'entreprise o Approfondissement des sujets préparation des données / ingénierie des données soulevés par le BCG et identification des chevauchements potentiels avec Data Cleaning Factory

2/Hand-on sur les données: o Analyser manuellement les fichiers (inputs et outputs) pour confirmer les règles documentées o Tester les règles documentées en nettoyant manuellement les nouveaux ensembles de données o Discussions techniques avec le BCG et les entreprises pour assurer la conformité des extrants générés

3/Formaliser le processus: o Identifier toutes les étapes nécessaires pour nettoyer les différents jeux de données o Travailler en étroite collaboration avec les équipes métiers pour définir les processus o Clarifier les méthodes de travail (demande de demande, SLA, etc.) o Rédiger et déployer des processus pour surveiller la qualité des données o Travailler en étroite collaboration avec les équipes métiers pour définir les processus o Développer et déployer des pipelines de données pour automatiser le nettoyage des données o Rédiger et déployer des processus pour surveiller la qualité des données o Clarifier les méthodes de travail (demande de demande, SLA, etc.) o Développer et déployer des pipelines de données pour automatiser le nettoyage des données o Développer en suivant les directives de la plateforme de données: o Créer des modèles de données cibles sur Snowflake o Développer et déployer un pipeline pour alimenter les différents modèles de données o Assurer la qualité des données des entrées et sorties o Développer et déployer un pipeline pour alimenter les différents modèles de données o Définir des méthodes de travail pour industrialiser les automatisations

Compétences :

Forte expertise en Python et SQL

Profil autonome, capable de prendre du recul et d'analyser l'image globale Solutions cloud Azure, Snowflake, Databricks, Azure Data Factory, Azure DevOps ...

Pro-actif, dynamique et motivé

Forte expertise en Python et SQL

Connaissance des solutions cloud Azure, Snowflake, Databricks, Azure Data Factory, Azure DevOps ... Pro-actif, dynamique et motiv

Si cette opportunité vous intéresse, merci de postuler sur l'annonce ou de m'envoyer votre CV à l.ndiaye@lawrenceharvey.com (Lala N'diaye) et je vous recontacterai pour vous donner plus de détails sur la mission.

N'hésitez pas à partager avec votre réseau si vous connaissez des personnes qui pourraient être intéressées.

Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)