Big Data Engineer (F/H)
Nanterre (Hauts-de-Seine) Études / Statistiques / Data
Description de l'offre
Leader mondial de l'assurance et de la gestion d'actifs, AXA aide ses 100 millions de clients à traverser les petites et grandes difficultés de la vie et les accompagne dans la sécurisation de leurs projets. Pour aider ses collaborateurs dans leur mission, AXA se donne comme priorité de prendre soin d'eux. Ainsi, en rejoignant AXA France vous travaillerez dans une entreprise responsable, offrant une véritable culture d'expertise, accélérant le développement des compétences de chacun, proposant une rémunération attractive et une évolution régulière. Pour vous, nous réinventons notre métier. Le Big Data Engineer contribue directement aux projets métier d'AXA France (ex : fraude santé, multiéquipements, pricing IARD, optimisation du lead management, fragilité auto, …) & à la construction du socle technique Big Data. Il a pour missions principales : - De développer les projets Big Data demandés par le métier, et notamment : a. Passer de la donnée brute à de la donnée propre, exposée sous forme de tables requetables dans le datalake (inférer les schémas de données, nettoyer et normaliser les données, publier les données) b. Consolider ces données au fur et à mesure de leur alimentation récurrente dans le data lake c. Les exploiter pour atteindre la finalité business (exposition de business view, réintégration des résultats dans le SI, service de scoring, …) - De travailler à la création du socle technique Big Data (librairies de fonctions, features communément utilisées avec les data scientists…) et industrialiser le cycle de développement de l'équipe - De mettre en place et de garantir le respect dans la durée d'un processus qualité sur l'ensemble du cycle de DEV (documents, tests unitaires / intégration / fonctionnels, commentaires, versionning, etc.) - D'accompagner les développeurs plus juniors de l'équipe (coaching, code review, pair programming…) De Formation scientifique (école d'ingénieur, école d'informatique), vous justifiez d'au moins 2 ans d'expérience tous langages confondus (préférence .NET ou Java), d'au moins 1 an d'expérience en développement Big Data et obligatoirement d'une 1ère expérience confirmée en PySpark (Spark en python) / Hadoop. Dans l'idéal vous avez eu une expérience avec Impala / Oozie / Hive / Kafka / Spark Streaming / Flume. Vous avez l'habitude des cycles de développements & outils associés (intégration & déploiement continu avec Jenkins, Sonar, Nexus, NUnit, Git...). Ces connaissances supplémentaires seraient un plus : environnement Cloudera, outils de data viz, librairies de Machine Learning, bases de données NoSQL (MongoDB, Hbase, ElasticSearch, Solr…), création d'API. Capable de travailler en autonomie, vous faites preuve d'une grande curiosité et de capacité d'innovation.