Datascientist H/F

Stage Par Atos
  • Système d'information / Urbanisation des SI
  • Grenoble
  • A négocier

Description

Site internet: http://www.atos.net

Datascientist H/F

Company Information

Atos SE (Société Européenne), est un leader de services numériques avec un chiffre d'affaires annuel pro forma de l'ordre 12 milliards d'euros et environ 100 000 collaborateurs dans 72 pays. Atos fournit à ses clients du monde entier des services de conseil et d'intégration de systèmes, d'infogérance, de Big Data et de Sécurité, d'opérations Cloud et des services transactionnels par l'intermédiaire de Worldline, le leader européen des services de paiement. Grâce à son expertise technologique et sa connaissance sectorielle pointue, Atos sert des clients dans différents secteurs : Défense, Services financiers, Santé, Industrie, Médias, Services aux collectivités, Secteur Public, Distribution, Télécoms, et Transports.

Atos déploie les technologies qui accélèrent le développement de ses clients et les aident à réaliser leur vision de l'entreprise du futur. Atos est le partenaire informatique mondial des Jeux Olympiques et Paralympiques. Le Groupe est coté sur le marché Euronext Paris et exerce ses activités sous les marques Atos, Bull, Canopy, Worldline, Atos Consulting, Atos Worldgrid et Unify.

Pour plus d'informations : www.atos.net

Job Description

Contexte

Le «big data» consiste à traiter, parfois en temps réel, de très gros volumes de données extrêmement variées et à les analyser. Toutes les entreprises sont aujourd'hui concernées. Elles possèdent déjà de vastes gisements d'informations et l'émergence de l'internet des objets décuple encore la masse de données à traiter issue aussi bien des réseaux sociaux que des nouveaux objets communicants fleurissant chaque jour. Les traitements sont variés, ils ciblent par exemple l'amélioration de la connaissance client, l'optimisation des campagnes marketing, l'amélioration de l'efficacité opérationnelle ou encore le développement de nouveaux services à la personne. Ils s'effectuent par lot mais aussi de plus en plus au fil de l'eau.

Un projet Big Data se déroule selon un workflow analytics itératif comprenant une phase de préparation des données, une phase d'analyse et une phase de synthèse. Les « Data Scientist » sont des utilisateurs familiers avec les outils d'analyse de données. Ils ont généralement des compétences en mathématiques appliquées et statistiques. Ils n'ont pas nécessairement des compétences pointues en développement informatique. Lors de la réalisation de l'application, ils interviennent sur l'ensemble sur projet : exploration et compréhension des données, nettoyage et transformation des données, sélection des méthodes et modèles de statistiques ou apprentissage à appliquer et synthèse des résultats.

Job description

ATOS BDS R&D développe, en méthode agile (SCRUM), une plateforme logicielle orientée service, «BigData Capabilities Framework» (BDCF), délivrant à la demande des application de traitement de données en masse (« BigData as a Service »). Les utilisateurs composent leurs applications depuis un catalogue ouvert de services orientés données, puis les déploient automatiquement et efficacement dans le cloud. Le catalogue de services intègre des composants de type connectivité (service web, réseaux sociaux, objets connectés), de type médiation (collecte, filtrage, agrégation, enrichissement), de type stockage (SQL, NoSQL) ou encore de type analytique (search, map/reduce, fouille, apprentissage, …). Les utilisateurs peuvent enrichir le catalogue avec leurs propres composants techniques ou métiers. Les applications sont construites sur un modèle d'architecture SOA distribuée et la norme TOSCA puis déployée sur OpenStack.

BDCF propose actuellement dans son catalogue un certain nombres de composants nécessaires au travail des data scientist : Notebook Jupyter, bibliothèques (pybrain, NLTK, twython, seaborn, ...), Rstudio, stack Hadoop et son ecosystème, ...

Le stage consiste à enrichir ce catalogue pour répondre plus précisément aux besoins des data scientists pour les assister dans leur travail lors des différentes étapes d'une analyse de données (acquisition, nettoyage et préparation, modélisation, reporting...) .

Plus précisément, le candidat sera amené à :

·  Identifier les besoins et manque au sein de l'offre BDCF (ex. Apache Zeppelin, OpenRefine, SeaHorse, H2O, ...)
·  Développer de nouveaux composants
·  Développer des cas d'utilisations
·  Effectuer de la veille technologique

Compétences exigées

·  Vous avez des compétences en data science (workflow d'analyse de données, Python, R, notebooks, ...)
·  Vous avez des connaissances générales dans le domaine du Big data (Hadoop et son écosystème, stream processing, ...)
·  Vous maîtrisez les environnements Linux et les langages de scripts.
·  Vous possédez un bon niveau d'anglais.
·  Vous faites preuve de curiosité, d'autonomie et d'une capacité à finaliser un projet. Par ailleurs, vous êtes reconnu(e) pour votre aptitude à travailler en équipe.

Découvrir la Page Entreprise

Ils ont travaillé ici