Recherche avancée
Par formation
Par date
Par ville
logo HUB Formation
Organisme de Formation
aux Technologies et métiers de L'informatique
La pédagogie au service de la technologie
Accueil > éditeurs > Hadoop > Hadoop : stockage Hbase

Hadoop : stockage Hbase

hadoop

Objectifs

  • Comprendre le fonctionnement de HBase, savoir mettre en place une configuration distribuée.

Public

  • Chefs de projet, administrateurs et toute personne souhaitant stocker des données avec Hbase.

Prérequis

  • Connaissance des principes de base Hadoop et des bases de données.

Programme de la formation

Introduction

  • Rappels rapides sur l'ecosystème Hadoop.
  • Les fonctionnalités du framework Hadoop
  • Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce
  • Présentation HBase. Historique. Lien avec HDFS.
  • Format des données dans HBase
  • Définitions : table, région, ligne, famille de colonnes,cellules, espace de nommage, ...
  • Fonctionnalités : failover automatique, sharding, interface avec des jobs MapReduce.

Architecture

  • HBase master node, Region Master, liens avec les clients HBase.
  • Présentation du rôle de Zookeeper.

Installation

  • Choix des packages.
  • Installation et configuration dans le fichier conf/hbase-site.xml
  • Démarrage en mode standalone start-hbase.
  • Test de connexion avec hbase shell.
  • Installation en mode distribué.
  • Travaux pratiques : Interrogations depuis le serveur http intégré.

HBase utilisation : shell

  • Présentation des différentes interfaces disponibles.
  • Travaux pratiques avec hbase shell.
  • Commandes de base, syntaxe, variables,
  • Manipulation des données : create, list, put, scan, get
  • Désactiver une table ou l'effacer : disable (enable), drop, ...
  • Programmation de scripts.
  • Gestion des tables : principe des filtres.
  • Mise en oeuvre de filtres de recherche, paramètres des tables.
  • Présentation des espaces de nommage.

Cluster HBase

  • Fonctionnement en mode distribué
  • Première étape : fonctionnement indépendant des démons (HMaster, HRegionServer, Zookeeper)
  • Passage au mode distribué : mise en oeuvre avec HDFS dans un environnement distribué.
  • Travaux pratiques : sur un exemple de tables réparties : mise en oeuvre des splits.

Programmation

  • Introduction, les APIs (REST, Avro, Thrift, Java, Ruby, ...)
  • Utilisation d'un client Java.
  • Gestion des tables.Lien avec MapReduce.
  • Principe des accès JMX.
  • Travaux pratiques : création d'un client JMX

Méthode pédagogique

Un support de cours est remis à chaque participant. La théorie est complétée par des cas pratiques ou exercices discutés avec le formateur.

Méthode d'évaluation

Le dernier jour se termine par un test permettant d'évaluer les connaissances acquises.