Data Engineer / Ops Confirmé - CDI
CDI Paris (Paris)
Description de l'offre
À propos
91% des français.e.s se disent inquiet·ète·s à propos du réchauffement climatique… Mais la plupart ignorent que leur épargne est utilisée pour financer des industries polluantes : la trajectoire de réchauffement climatique de la finance traditionnelle est de 3,7C !
C’est pour cela qu'est née Goodvest : une plateforme d’épargne engagée pour l’environnement.
Pas de concession : Goodvest ne s’arrête pas aux labels, et exclut strictement les secteurs néfastes, tels que les énergies fossiles, l’armement ou le tabac. Ils analysent l’empreinte carbone des entreprises et chaque portefeuille est conçu pour avoir une trajectoire climatique inférieure à 2C, conformément à l’Accord de Paris.
Leur solution est digitale, simple et rapide. Elle permet à chacun.e de bénéficier d’une épargne 100% personnalisée, en accord avec ses projets, sa situation et ses valeurs. En tout transparence.
Rejoins une équipe jeune et engagée, et participe au développement d’un projet en pleine expansion, porté par des objectifs ambitieux : ouverture à l’international, développement d’une appli, diversification des portefeuilles d’épargnes…
Si tu veux poser ta pierre à l’édifice de ce grand changement, n’hésite pas à envoyer ta candidature !
Descriptif du poste
L’équipe Data chez Goodvest est au cœur de notre stratégie de croissance. Elle s'articule autour de deux missions clés : la Data Analytics , pour piloter la performance, et la Data Product/Ops , pour garantir la fiabilité de nos flux de données critiques et l'optimisation de nos outils métiers internes.
Pour franchir un cap technique et répondre à nos ambitions de passage à l'échelle (scaling), nous recherchons notre futur(e) Data Engineer / DataOps confirmé(e) en CDI. Votre mission principale sera d'être le garant de la qualité, de la disponibilité et de la performance de nos données.
Vos missions :
·
Infrastructure & Migration : Piloter la migration complète de notre Data Warehouse actuel (PostgreSQL) vers un système OLAP (ClickHouse, Redshift ou Snowflake) pour résoudre les lenteurs actuelles.
·
Fiabilisation des Pipelines : Optimiser et stabiliser nos flux d'ingestion (Airbyte) et nos DAGs d'orchestration (Airflow) pour éliminer les tâches manuelles et les échecs récurrents.
·
Modélisation & Data Quality : Adapter et structurer nos 180+ modèles DBT. Vous mettrez en place des tests de qualité de données et du monitoring (observabilité) pour garantir des données "Gold" fiables à 100%.
·
Ops & Architecture : Séparer proprement la stack technique entre les besoins "Produit" et "Analytics". Vous mettrez en place les meilleures pratiques de code review et de CI/CD.
·
Maintien Opérationnel : Assurer la gestion des incidents de production en toute autonomie et mettre en place un système d'alerting performant.
Votre trajectoire :
·
À 3 mois : Vous maîtrisez notre stack (Airflow, Airbyte, DBT, Postgres) et gérez les incidents de production sans aide.
·
À 6 mois : La migration vers le nouveau système OLAP est terminée, et la stack est proprement segmentée entre Product et Analytics.
Notre stack Data :
·
Ingestion : Airbyte, Airflow.
·
Orchestration : Airflow.
·
Stockage : PostgreSQL, AWS S3
·
Transformation : DBT.
·
BI : Metabase, PostHog.
·
Environnement : AWS, Docker, GitLab CI/CD.
Avantages du poste :
·
Un rôle stratégique avec une grande autonomie technique.
·
2 jours de télétravail par semaine à partir d'un mois d'ancienneté.
·
Mutuelle, Tickets Restaurants et BSPCE .
·
Macbook Pro (M1 / M2 / M3).
Profil recherché
Expérience & compétences
Les indispensables :
·
Expérience : Profil confirmé avec une expérience solide en Data Engineering (pipelines, DW, orchestration).
·
Hard Skills :
· Maîtrise avancée du SQL et de Python orienté data.
· Expérience passée sur une technologie de Data Warehouse (Redshift, BigQuery, Clickhouse, Snowflake)
· Expertise sur DBT (modélisation, macros Jinja, modèles incrémentaux).
· Expérience sur un Cloud ( AWS de préférence).
· Maîtrise impérative de Git et des réflexes "Production-first".
·
Data Ops : Expérience en monitoring, observabilité et gestion d'incidents critiques.
Le "plus" qui fera la différence :
·
Expérience passée dans la migration d'un Data Warehouse.
·
Connaissance d'un outil de streaming (Kafka, SQS).
·
Sensibilité aux enjeux de sécurité et RGPD.
Qualités personnelles
·
Rigueur opérationnelle : Pour vous, la fiabilité passe avant la nouvelle fonctionnalité.
·
Problem Solver : Vous savez diagnostiquer et résoudre des pannes complexes sous pression.
·
Communication : Capacité à alerter clairement lors d'incidents et à vulgariser vos choix d'architecture auprès des équipes métiers.
·
Autonomie : Capacité à prioriser vos sujets techniques en fonction des enjeux business.
Process de recrutement
·
Réception des CV et première sélection.
·
Call de qualification rapide (20-30min).
·
Echange avec Thomas, notre Head of Data (45-60min).
·
Mise en situation (2h)
·
Entretien avec un fondateur (30min).
·
Décision finale.
Informations complémentaires
· Type de contrat : CDI
· Date de début : 01 mars 2026
· Lieu : Paris
· Niveau d'études : Bac +5 / Master
· Expérience : > 2 ans
· Télétravail partiel possible
· Salaire : entre 49000 et 52000 / an