Organisme de Formation aux technologies et métiers de L'informatique
hadoop

Formation Hadoop - Présentation de l'écosystème

Comprendre le rôle de chaque brique logicielle

Informations générales

MAG35
1 jour (7h)
850 €HT

Objectifs

Après ce cours, vous serez capable de :

  • Se repérer dans l'écosystème Hadoop
  • Connaître les différents éléments de l'écosystème Hadoop et leurs rôles respectifs
  • Pouvoir comprendre l'architecture des applicatifs Hadoop et savoir quels sont les apports et les cas d'usage des solutions Hadoop

Public

Ce cours s'adresse avant tout aux personnes suivantes :

  • Chefs de projets, développeurs Toute personne souhaitant comprendre les mécanismes Hadoop et le rôle de chaque composant

Prérequis

Pour suivre ce cours, vous devez déjà posséder les connaissances suivantes :

  • Connaissances générales des systèmes d'information

Programme de la formation

Si Internet a révolutionné l'accès à l'information, son utilisation génère une quantité incalculable de nouvelles informations chaque jour... En enrichissant nos profils sur les réseaux sociaux, en rédigeant des billets sur des blogs, en participant à des forums ou en publiant des annonces sur des sites spécialisés, nous contribuons nous-même à créer de l'information. Afin d'exploiter au mieux des volumes sans cesse croissants de données, les moteurs de recherche et autres réseaux sociaux ont dû s'affranchir des outils traditionnels et développer leurs propres solutions. Les travaux de Google ont ainsi été à l'origine de la création du projet Open Source Hadoop, un Framework Java libre destiné à faciliter le stockage, l'exploitation et l'analyse de très grands volumes d'information (on parle ici de péta-octets) hébergés sur des milliers de machines différentes. Ce séminaire a pour objectif de présenter les différents éléments de l'écosystème Hadoop et leur rôle respectif dans un projet Big Data.

Introduction

  • Rappels sur NoSQL
  • Le théorème CAP
  • Historique du projet Hadoop
  • Fonctionnalités : stockage, outils d'extraction, de conversion, ETL, analyse,
  • Exemples de cas d'utilisation sur des grands projets
  • Les principaux composants : HDFS pour le stockage et YARN pour les calculs
  • Les distributions et leurs caractéristiques : HortonWorks, Cloudera, MapR, EMR, Apache,

L'architecture

  • Terminologie : NameNode, DataNode, ResourceManager
  • Rôle et interactions des différents composants
  • Présentation des outils d'infrastructure : ambari, avro, zookeeper
  • Présentation des outils de gestion des données : pig, oozie, tez, falcon, sqoop, flume
  • Présentation des outils d'interfaçage avec les applications GIS
  • Présentation des outils de restitution et requêtage : webhdfs, hive, hawq, impala, drill, stinger, tajo, mahout, lucene, elasticSearch, Kibana
  • Les architectures connexes : spark, cassandra

Exemples interactifs

  • Démonstrations sur une architecture Hadoop multi-noeuds
  • Mise à disposition d'un environnement pour des exemples de calcul
  • Travaux pratiques : intégration de données avec Flume, calculs map/reduce avec Pig, Hive, et Impala

Applications

  • Cas d'usages de Hadoop
  • Calculs distribués sur des clusters Hadoop
plus d'infos

Méthode pédagogique

Chaque participant travaille sur un poste informatique qui lui est dédié. Un support de cours lui est remis soit en début soit en fin de cours. La théorie est complétée par des cas pratiques ou exercices corrigés et discutés avec le formateur. Le formateur projette une présentation pour animer la formation et reste disponible pour répondre à toutes les questions.

Méthode d'évaluation

Tout au long de la formation, les exercices et mises en situation permettent de valider et contrôler les acquis du stagiaire. En fin de formation, le stagiaire complète un QCM d'auto-évaluation.

Mis à jour le 03/12/2025
Le contenu peut faire l'objet de légères adaptations selon les besoins et la progression des participants.