The Information Lab Is Hiring!

Consultant.e Data Engineer Paris

À propos

The Information Lab a été fondée en 2010 par des passionnés de data autour des solutions Tableau, Alteryx et Snowflake. Ils sont convaincus que ce sont les meilleures technologies pour accompagner la transformation digitale de leurs clients.

Cette spécialisation leur permet d’être les premiers partenaires de ces éditeurs et d’être des experts reconnus de ces solutions en France et en Europe.

The Information Lab a posé ses valises en France en 2015. Ils ont aujourd'hui plus de 250 clients sur tous les secteurs d'activité : banque, assurance, logistique, ONG, retail, etc. L'équipe est répartie dans toute la France, la majorité se trouvant à Paris.

Descriptif du poste

En tant que membre du pôle Expertise et Conseil, vous intervenez auprès de clients variés (grands groupes, ETI, start-ups, PME) pour concevoir, développer et maintenir les pipelines de données robustes, afin de répondre à leurs besoins analytiques et opérationnels.

Vos responsabilités incluent :

  • La conception d’architectures data (batch et/ou temps réel)

  • Le développement de pipelines ETL/ELT

  • La gestion et l'optimisation de data lakes / data warehouses

  • La collaboration avec les équipes data science, produit et infrastructure

  • La garantir de la qualité, de la sécurité et de la gouvernance des données

  • La contribution au développement des compétences internes

Les compétences recherchées portent principalement sur nos technologies partenaires (dbt, Snowflake, Fivetran/Airbyte, Alteryx, Tableau), mais nous restons attentifs à toute autre expertise technique que vous pourriez apporter.

Profil recherché

Vos principales qualités :

  1. Excellentes facultés d’écoute et de communication, à l'oral comme à l'écrit (notamment pour le travail transverse avec des data scientists, PMs, etc.)

  2. Aptitude à travailler sur plusieurs sujets en parallèle et à hiérarchiser les priorités

  3. Humilité, envie d'apprendre et capacité à transmettre ses connaissances

  4. Sens du service, bon relationnel client et rigueur nécessaire à la réussite des projets

  5. Esprit de mentorat pour accompagner les juniors ou intermédiaires

Compétences méthodologiques :

  1. Capacité à définir des architecture de pipelines (batch, streaming, tests, orchestration, versionning)

  2. Conception et modélisation des données

  3. Maîtrise des principes de sécurisation des données (RBAC, chiffrement, anonymisation)

  4. Estimation des charges et découpage en user stories techniques

  5. Documentation des flux et des jeux de données (catalogue de données)

  6. Application des principes Agile / Scrum / Kanban

Compétences techniques :

  • Langages : Python, SQL (avancé), Scala (souvent en contexte Spark)

  • Frameworks / outils :

    • Airflow, Airbyte, dbt, Kestra
    • Spark, Kafka
    • Docker, Kubernetes
  • Cloud & bases de données :

    • Snowflake, GCP (BigQuery, Dataflow), AWS (Redshift, Glue), Azure (Synapse)
    • Bases relationnelles (PostgreSQL, MySQL) et bases NoSQL (MongoDB, Cassandra)
  • DataOps / CI-CD / monitoring

    • GitLab CI, Jenkins, Terraform, dbt tests, Great Expectations, etc

Process de recrutement

  1. Candidature

  2. Entretien RH | Visio | 30min

  3. Entretien compétences | Présentiel ou visio | 2h

  4. Entretien "culture fit" | Présentiel ou visio | 1h

  5. Proposition d'embauche

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Paris
  • Niveau d'études : > Bac +5 / Doctorat
  • Expérience : > 2 ans
  • Télétravail partiel possible
  • Salaire : 40000€ None

Vous êtes intéressé par cette offre ?