Ingénieur.e de données

Description

  • Réaliser les flux de données en batch (ETL ou ELT), en Data Warehouse automation (DWA) ou en flux continu (Data Streaming)
  • Réaliser les traitements de données (nettoyage, correction, formatage, standardisation, transformation, enrichissement) pour les calculs et les mises en application des règles d’affaires
  • Réaliser les traitements de validation de la qualité
  • Réaliser les traitements de tests automatisés
  • Documentation nécessaire et suffisante sur les processus réalisés

Capacités de travail en équipe

  • Travail en mode projet – livraison de l’équipe data de Logient
  • Suivre les consignes de l’architecte de solutions analytiques et de l’architecte de données

Capacités de travail dans un environnement infonuagique

  • Maîtrise des méthodes de développement optimiser pour des environnements infonuagiques (minimiser les coûts des traitements et du développement sur de large volume) – réflexion d’optimisation à priori et non à posteriori


Profil

Compétences en gestion de données

  • Élaboration de flux optimiser en batch de type ETL et ELT
  • Élaboration de flux optimiser en continu (Data Streaming) par gestion d’évenement ou par micro-batch
  • Élaboration de flux d’insertion de données en gestion des SCD (slowly changing dimension) – historisation des changements – minimalement, en type 2 (historisation en ligne), 3 (historisation en colonne) et 4 (historisation en même temps en ligne et en colonne).
  • Traitement élaborer pour charger un entrepôt de données (en Data Vault), un comptoir de données (en Star Schema ou en Snowflake Schema), ou un lac de données (fichiers parquet)
  • Élaboration de traitements de validation de la qualité des données
  • Élaboration de tests automatisés et récurrents
  • Élaboration de traitements de calculs par partition au sein d’une base de données opérationnel et une base de données analytique
  • Élaboration de traitements avec calculs géospatials

Expériences

  • Au moins 5 projets différents dans des entreprises de différentes tailles et différents secteurs d’activités, obligatoire
  • Bilingue Anglais et Français

Connaissances techniques

  • Maîtrise d’Apache Kafka, obligatoire
  • Maîtrise de Spark, obligatoire
  • Maîtrise d’Azure Event Hub, obligatoire
  • Maîtrise de Microsoft Fabric, obligatoire
  • Maîtrise de Azure DevOps, obligatoire
  • Maîtrise d’AWS Glue, un atout
  • Maîtrise d’AWS EventBridge, un atout
  • Maîtrise de SQL Server au sein d’Amazon RDS, un atout
  • Maîtrise de l’environnement Azure, un atout
  • Toute certification dans le domaine de l’ingénierie de donnée (Databricks, Matillion, Upsolver, Fivetran, etc.) ou du DWA (VaultSpeed, Astera, WhereScape, etc.) est un atout important.

Leave a Comment