Hadoop - Présentation de l'écosystème
Comprendre le rôle de chaque brique logicielle
Si Internet a révolutionné l’accès à l’information, son utilisation génère une quantité incalculable de nouvelles informations chaque jour... En enrichissant nos profils sur les réseaux sociaux, en rédigeant des billets sur des blogs, en participant à des forums ou en publiant des annonces sur des sites spécialisés, nous contribuons nous-même à créer de l’information. Afin d’exploiter au mieux des volumes sans cesse croissants de données, les moteurs de recherche et autres réseaux sociaux ont dû s’affranchir des outils traditionnels et développer leurs propres solutions. Les travaux de Google ont ainsi été à l’origine de la création du projet Open Source Hadoop, un Framework Java libre destiné à faciliter le stockage, l’exploitation et l’analyse de très grands volumes d’information (on parle ici de péta-octets) hébergés sur des milliers de machines différentes. Ce séminaire a pour objectif de présenter les différents éléments de l'écosystème Hadoop et leur rôle respectif dans un projet Big Data.
Objectifs
- Se repérer dans l’écosystème Hadoop
- Connaître les différents éléments de l'écosystème Hadoop et leurs rôles respectifs
- Pouvoir comprendre l'architecture des applicatifs Hadoop et savoir quels sont les apports et les cas d'usage des solutions Hadoop
Public
- Chefs de projets, développeurs
- Toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant
Prérequis
- Connaissances générales des systèmes d'information