Recherche avancée
Par formation
Par date
Par ville
logo HUB Formation
Organisme de Formation
aux Technologies et métiers de L'informatique
La pédagogie au service de la technologie
Accueil > Domaines > Big Data > Hadoop - Présentation de l'écosystème

Hadoop - Présentation de l'écosystème

Comprendre le rôle de chaque brique logicielle

hadoop

Si Internet a révolutionné l’accès à l’information, son utilisation génère une quantité incalculable de nouvelles informations chaque jour... En enrichissant nos profils sur les réseaux sociaux, en rédigeant des billets sur des blogs, en participant à des forums ou en publiant des annonces sur des sites spécialisés, nous contribuons nous-même à créer de l’information. Afin d’exploiter au mieux des volumes sans cesse croissants de données, les moteurs de recherche et autres réseaux sociaux ont dû s’affranchir des outils traditionnels et développer leurs propres solutions. Les travaux de Google ont ainsi été à l’origine de la création du projet Open Source Hadoop, un Framework Java libre destiné à faciliter le stockage, l’exploitation et l’analyse de très grands volumes d’information (on parle ici de péta-octets) hébergés sur des milliers de machines différentes. Ce séminaire a pour objectif de présenter les différents éléments de l'écosystème Hadoop et leur rôle respectif dans un projet Big Data.

Objectifs

  • Se repérer dans l’écosystème Hadoop
  • Connaître les différents éléments de l'écosystème Hadoop et leurs rôles respectifs
  • Pouvoir comprendre l'architecture des applicatifs Hadoop et savoir quels sont les apports et les cas d'usage des solutions Hadoop

Public

  • Chefs de projets, développeurs
  • Toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant

Prérequis

  • Connaissances générales des systèmes d'information

Programme de la formation

Introduction

  • Rappels sur NoSQL
  • Le théorème CAP
  • Historique du projet Hadoop
  • Fonctionnalités : stockage, outils d'extraction, de conversion, ETL, analyse, ...
  • Exemples de cas d'utilisation sur des grands projets
  • Les principaux composants : HDFS pour le stockage et YARN pour les calculs
  • Les distributions et leurs caractéristiques (HortonWorks, Cloudera, MapR, EMR, Apache, ...)

L'architecture

  • Terminologie : NameNode, DataNode, ResourceManager
  • Rôle et interactions des différents composants
  • Présentation des outils d'infrastructure : ambari, avro, zookeeper
  • Présentation des outils de gestion des données : pig, oozie, tez, falcon, sqoop, flume
  • Présentation des outils d'interfaçage avec les applications GIS
  • Présentation des outils de restitution et requêtage : webhdfs, hive, hawq, impala, drill, stinger, tajo, mahout, lucene, elasticSearch, Kibana
  • Les architectures connexes : spark, cassandra

Exemples interactifs

  • Démonstrations sur une architecture Hadoop multi-noeuds
  • Mise à disposition d'un environnement pour des exemples de calcul
  • Travaux pratiques : intégration de données avec Flume, calculs map/reduce avec Pig, Hive, et Impala

Applications

  • Cas d'usages de Hadoop
  • Calculs distribués sur des clusters Hadoop