Stage Real time and streaming solutions

Stage Par Atos
  • Système d'information / Urbanisation des SI
  • Grenoble
  • A négocier

Description

Site internet: http://www.atos.net

Stage Real time and streaming solutions

Company Information

Atos SE (Société Européenne), est un leader de services numériques avec un chiffre d'affaires annuel pro forma de l'ordre 12 milliards d'euros et environ 100 000 collaborateurs dans 72 pays. Atos fournit à ses clients du monde entier des services de conseil et d'intégration de systèmes, d'infogérance, de Big Data et de Sécurité, d'opérations Cloud et des services transactionnels par l'intermédiaire de Worldline, le leader européen des services de paiement. Grâce à son expertise technologique et sa connaissance sectorielle pointue, Atos sert des clients dans différents secteurs : Défense, Services financiers, Santé, Industrie, Médias, Services aux collectivités, Secteur Public, Distribution, Télécoms, et Transports.

Atos déploie les technologies qui accélèrent le développement de ses clients et les aident à réaliser leur vision de l'entreprise du futur. Atos est le partenaire informatique mondial des Jeux Olympiques et Paralympiques. Le Groupe est coté sur le marché Euronext Paris et exerce ses activités sous les marques Atos, Bull, Canopy, Worldline, Atos Consulting, Atos Worldgrid et Unify.

Pour plus d'informations : www.atos.net

Job Description

ATOS BDS R&D développe, en méthode agile (SCRUM), une plateforme logicielle orientée service, «BigData Capabilities Framework» (BDCF), délivrant à la demande des application de traitement de données en masse (« BigData as a Service »). Les utilisateurs composent leurs applications depuis un catalogue ouvert de services orientés données, puis les déploient automatiquement et efficacement dans le cloud. Le catalogue de services intègre des composants de type connectivité (service web, réseaux sociaux, objets connectés), de type médiation (collecte, filtrage, agrégation, enrichissement), de type stockage (SQL, NoSQL) ou encore de type analytique (search, map/reduce, fouille, apprentissage, …). Les utilisateurs peuvent enrichir le catalogue avec leurs propres composants techniques ou métiers. Les applications sont construites sur un modèle d'architecture SOA distribuée et la norme TOSCA puis déployée sur OpenStack.

Le stage consiste à mener des études sur les outils de visualisation et stockage en temps réel ainsi que ceux de traitement de flux (dataflow) afin de pouvoir proposer/ améliorer des architectures Big Data de traitement de données en temps réel .

Plus précisément, le candidat sera amené à :

·  Monter en compétence sur les outils de traitement Big Data en temps réel ( Spark streaming, Storm , Kafka streams , Apache Apex) ainsi que les architectures de type stream processing ( lambda , kappa, zeta)
·  Monter en compétence sur la plateforme Bull BDCF et ses technologies sous-jacentes (cloudify, openstack).
·  Monter en compétence sur des outils de visualisation et de stockage en temps réel
·  Evaluer des composants du marché en vue de leur intégration
·  Contribuer au développement de modules de la solution
·  Contribuer à la mise en place de cas d'usage mettant en œuvre la plate-forme
·  Ecrire de la documentation

Contexte

Le «big data» consiste à traiter, parfois en temps réel, de très gros volumes de données extrêmement variées et à les analyser. Toutes les entreprises sont aujourd'hui concernées. Elles possèdent déjà de vastes gisements d'informations et l'émergence de l'internet des objets décuple encore la masse de données à traiter issue aussi bien des réseaux sociaux que des nouveaux objets communicants fleurissant chaque jour. Les traitements sont variés, ils ciblent par exemple l'amélioration de la connaissance client, l'optimisation des campagnes marketing, l'amélioration de l'efficacité opérationnelle ou encore le développement de nouveaux services à la personne. Ils s'effectuent par lot mais aussi de plus en plus au fil de l'eau.

Aujourd'hui le «big data» rentre dans l'ère temps réel, c'est ce que l'on appelle le « Fast Data » ou encore la capacité à traiter au fil de l'eau de très nombreux flux d'événements avec une très faible latence tout en assurant la haute disponibilité et la tolérance aux fautes. Pour atteindre ces objectifs , un ensemble d'outils allant de l'ingestion dans un système big data à la visualisation en temps réel sont développés par la communauté ; ces outils combinées entre eux permettent de concevoir des architectures de traitement temps réel avec 1 haut niveau de garantie de bout en bout .

Job Requirements

Compétences exigées

·  Vous avez des compétences en data science, développement Java, devops et intégration continue.
·  Vous avez des connaissances générales dans le domaine du Big data et Cloud Computing.
·  Des compétences en Hadoop et les outils de son univers seraient un plus.
·  Vous possédez un bon niveau d'anglais.
·  Vous faites preuve de curiosité, d'autonomie et d'une capacité à finaliser un projet. Par ailleurs, vous êtes reconnu(e) pour votre aptitude à travailler en équipe.
·  Vous maîtrisez les environnements Linux, le développement Java et les langages de scripts.
·  Des connaissances générales dans le domaine de l'IoT seraient utiles.

Découvrir la Page Entreprise

Ils ont travaillé ici