Data Engineer - Freelance
Freelance Paris (Paris)
Description de l'offre
📍 Paris (hybride) | 🗓 Démarrage 2 mois | 📅 Temps plein
Contexte de la mission
Vous intervenez au sein d’un fonds d’investissement français de premier plan, engagé dans une transformation ambitieuse autour de la Data et de l’Intelligence Artificielle.
L’organisation structure actuellement le passage :
de cas d’usage IA exploratoires
à une mise à l’échelle de solutions déployées et utilisées
L’objectif est de développer et industrialiser plusieurs dizaines de use cases IA à fort impact métier.Vous serez rattaché au Lead Data Engineer.
Vos missions
Pipelines d'ingestion Concevoir, développer et maintenir les pipelines depuis des sources hétérogènes (Salesforce, SAP BO, SharePoint, MSSQL, SFTP...) vers le Data Warehouse Snowflake, via un Data Lake S3.
Architecture Medallion Alimenter et faire évoluer l'architecture Landing → Bronze → Silver → Gold dans Snowflake.
Orchestration Développer et superviser les DAGs Airflow (Astronomer) pour ordonnancer les flux, gérer les dépendances et assurer la reprise sur erreur.
Qualité & observabilité Mettre en place et maintenir les contrôles de qualité avec Elementary et les tests dbt, monitorer la fraîcheur et la volumétrie des données en collaboration avec les data stewards et le responsable de la gouvernance data.
Infrastructure as Code Gérer les stages externes Snowflake (S3, SharePoint), les intégrations de stockage, les rôles RBAC et les ressources cloud AWS via Terraform ou scripts CI/CD.
Intégration IA Contribuer aux pipelines de traitement documentaire exploitant Snowflake Cortex (AI_PARSE_DOCUMENT, AI_COMPLETE) et AWS Bedrock pour l'extraction d'informations à partir de documents non structurés.
CI/CD & DevOps Maintenir les pipelines GitLab CI/CD, les environnements Docker et les pratiques de versioning pour l'ensemble des composants data.
Documentation & collaboration Documenter les pipelines, participer aux revues de code et contribuer à la montée en compétences de l'équipe.
Stack technique
Cloud : AWS (S3, IAM Identity Center, Bedrock)
Data Warehouse : Snowflake (stages, Cortex, RBAC, External OAuth)
Transformation : dbt Core (architecture Medallion)
Orchestration : Apache Airflow (Astronomer)
Observabilité : Elementary
Langages : Python (uv, Pydantic), SQL
CI/CD & Infra : GitLab CI/CD, Docker, Terraform
BI : Power BI / Sigma / SAP BO
IA / LLM : Snowflake Cortex, AWS Bedrock (Claude), Claude Code
Connecteurs : Salesforce API, SAP BO, Microsoft Graph API
Profil recherché
Profil recherché
Formation Bac+5 en informatique, data engineering ou équivalent
5 à 10 ans d'expérience en ingénierie de données, idéalement en environnement cloud AWS / Snowflake
Solide maîtrise de SQL et Python
Maîtrise de dbt et des bonnes pratiques
Expérience confirmée sur Airflow
Bonne compréhension des architectures data modernes (Lakehouse, Medallion, ELT)
Familiarité avec les bonnes pratiques DevOps (Git, CI/CD, conteneurisation)
Connaissance des problématiques réglementaires (RGPD, DORA, AMF) appréciée
Curiosité pour l'IA générative et les cas d'usage LLM appliqués à la donnée
Autonomie, rigueur, capacité à travailler en équipe dans un contexte exigeant
Français courant, anglais professionnel
Ă€ propos de Collective.work
Collective.work est la plateforme de recrutement nouvelle génération pour trouver votre prochain emploi.
Fort d'une grande expertise dans l'IA, Collective.work permet de mieux cibler les offres et leurs candidats correspondants, créant ainsi un système beaucoup plus fluide que les acteurs traditionnels.
Plus de 10,000 recruteurs utilisent Collective, permettant Ă des dizaines de milliers de candidats de trouver leur futur emploi chaque jours