Les offres de “Collective.work”

Nouveau Collective.work

Data Engineer - Freelance

  • Freelance
  • Paris (Paris)

Description de l'offre

📍 Paris (hybride) | 🗓 Démarrage 2 mois | 📅 Temps plein

Contexte de la mission

Vous intervenez au sein d’un fonds d’investissement français de premier plan, engagé dans une transformation ambitieuse autour de la Data et de l’Intelligence Artificielle.

L’organisation structure actuellement le passage :

  • de cas d’usage IA exploratoires

  • Ă  une mise Ă  l’échelle de solutions dĂ©ployĂ©es et utilisĂ©es

L’objectif est de développer et industrialiser plusieurs dizaines de use cases IA à fort impact métier.Vous serez rattaché au Lead Data Engineer.

Vos missions

Pipelines d'ingestion Concevoir, développer et maintenir les pipelines depuis des sources hétérogènes (Salesforce, SAP BO, SharePoint, MSSQL, SFTP...) vers le Data Warehouse Snowflake, via un Data Lake S3.

Architecture Medallion Alimenter et faire évoluer l'architecture Landing → Bronze → Silver → Gold dans Snowflake.

Orchestration Développer et superviser les DAGs Airflow (Astronomer) pour ordonnancer les flux, gérer les dépendances et assurer la reprise sur erreur.

Qualité & observabilité Mettre en place et maintenir les contrôles de qualité avec Elementary et les tests dbt, monitorer la fraîcheur et la volumétrie des données en collaboration avec les data stewards et le responsable de la gouvernance data.

Infrastructure as Code Gérer les stages externes Snowflake (S3, SharePoint), les intégrations de stockage, les rôles RBAC et les ressources cloud AWS via Terraform ou scripts CI/CD.

Intégration IA Contribuer aux pipelines de traitement documentaire exploitant Snowflake Cortex (AI_PARSE_DOCUMENT, AI_COMPLETE) et AWS Bedrock pour l'extraction d'informations à partir de documents non structurés.

CI/CD & DevOps Maintenir les pipelines GitLab CI/CD, les environnements Docker et les pratiques de versioning pour l'ensemble des composants data.

Documentation & collaboration Documenter les pipelines, participer aux revues de code et contribuer à la montée en compétences de l'équipe.

Stack technique

  • Cloud : AWS (S3, IAM Identity Center, Bedrock)

  • Data Warehouse : Snowflake (stages, Cortex, RBAC, External OAuth)

  • Transformation : dbt Core (architecture Medallion)

  • Orchestration : Apache Airflow (Astronomer)

  • ObservabilitĂ© : Elementary

  • Langages : Python (uv, Pydantic), SQL

  • CI/CD & Infra : GitLab CI/CD, Docker, Terraform

  • BI : Power BI / Sigma / SAP BO

  • IA / LLM : Snowflake Cortex, AWS Bedrock (Claude), Claude Code

  • Connecteurs : Salesforce API, SAP BO, Microsoft Graph API

Profil recherché

Profil recherché

  • Formation Bac+5 en informatique, data engineering ou Ă©quivalent

  • 5 Ă  10 ans d'expĂ©rience en ingĂ©nierie de donnĂ©es, idĂ©alement en environnement cloud AWS / Snowflake

  • Solide maĂ®trise de SQL et Python

  • MaĂ®trise de dbt et des bonnes pratiques

  • ExpĂ©rience confirmĂ©e sur Airflow

  • Bonne comprĂ©hension des architectures data modernes (Lakehouse, Medallion, ELT)

  • FamiliaritĂ© avec les bonnes pratiques DevOps (Git, CI/CD, conteneurisation)

  • Connaissance des problĂ©matiques rĂ©glementaires (RGPD, DORA, AMF) apprĂ©ciĂ©e

  • CuriositĂ© pour l'IA gĂ©nĂ©rative et les cas d'usage LLM appliquĂ©s Ă  la donnĂ©e

  • Autonomie, rigueur, capacitĂ© Ă  travailler en Ă©quipe dans un contexte exigeant

  • Français courant, anglais professionnel

Ă€ propos de Collective.work

Collective.work est la plateforme de recrutement nouvelle génération pour trouver votre prochain emploi.

Fort d'une grande expertise dans l'IA, Collective.work permet de mieux cibler les offres et leurs candidats correspondants, créant ainsi un système beaucoup plus fluide que les acteurs traditionnels.

Plus de 10,000 recruteurs utilisent Collective, permettant Ă  des dizaines de milliers de candidats de trouver leur futur emploi chaque jours

Faire de chaque avenir une réussite.
  • Annuaire emplois
  • Annuaire entreprises
  • ÉvĂ©nements