Recherche avancée
Par formation
Par date
Par ville
logo HUB Formation
Organisme de Formation
aux Technologies et métiers de L'informatique
La pédagogie au service de la technologie
Accueil > éditeurs > Hadoop > Hadoop Cloudera : administration

Hadoop Cloudera : administration

hadoop

Objectifs

  • Connaître les principes du framework Hadoop et savoir l'installer et le configurer.
  • Maitriser la configuration et la gestion des services avec Cloudera Manager.

Public

  • Chefs de projet, administrateurs et toute personne souhaitant mettre en oeuvre un système distribué avec Hadoop.

Prérequis

  • Connaissance des commandes des systèmes unix/linux.

Programme de la formation

Introduction

  • Les fonctionnalités du framework Hadoop.
  • Les différentes versions.
  • Distributions : Apache, Cloudera, Hortonworks, EMR, MapR, DSE.
  • Spécificités de chaque distribution.
  • Les apports de la distribution Cloudera.
  • Architecture et principe de fonctionnement.
  • Terminologie : NameNode, DataNode, ResourceManager, NodeManager.
  • Rôle des différents composants.
  • Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce
  • Oozie, Pig, Hive, HBase, ...

Les outils Hadoop

  • Infrastrucure/Mise en oeuvre : Avro, Ambari, Zookeeper, Pig, Tez, Oozie, Falcon, Pentaho
  • Vue d'ensemble
  • Gestion des données.
  • Exemple de sqoop.
  • Restitution : webhdfs, hive, Hawq, Mahout,ElasticSearch ..
  • Outils complémentaires:
    • Spark, SparkQL, SparkMLib, Storm, BigTop, Zebra
    • de développement : Cascading, Scalding, Flink/Pachyderm
    • d'analyse : RHadoop, Hama, Chukwa, kafka

Installation et configuration

  • Présentation de Cloudera Manager
  • Trois modes d'installation : local, pseudo-distribué, distribué
  • Première installation.
  • Mise en oeuvre avec un seul noeud Hadoop.
  • Présentation de Cloudera Manager.
  • Configuration de l'environnement,étude des fichiers de configuration :
  • core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml et capacity-scheduler.xml
  • Création des users pour les daemons hdfs et yarn,droits d'accès sur les exécutables et répertoires.
  • Lancement des services.
  • Démarrage des composants : hdfs, hadoop-daemon, yarn-daemon, etc ..
  • Gestion de la grappe, différentes méthodes :
  • ligne de commandes, API Rest, serveur http intégré, APIS natives
  • Exemples en ligne de commandes avec hdfs, yarn, mapred
  • Présentation des fonctions offertes par le serveur http
  • Travaux pratiques :
  • Organisation et configuration d'une grappe hadoop avec Cloudera Manager
  • Traitement de données.
  • Requêtage SQL avec Impala.

Administration Hadoop

  • Outils complémentaires à yarn et hdfs : jConsole, jconsole yarn
  • Exemples sur le suivi de charges, l'analyse des journaux.
  • Principe de gestion des noeuds, accès JMX.
  • Travaux pratiques :
  • mise en oeuvre d'un client JMX
  • Administration HDFS :
  • présentation des outils de stockage des fichiers, fsck, dfsadmin
  • Mise en oeuvre sur des exemples simples de récupération de fichiers
  • Gestion centralisée de caches avec Cacheadmin

Sécurité

  • Mécanismes de sécurité et mise en oeuvre pratique :
  • Activation de la sécurité avec Kerberos dans core-site.xml, et dans hdfs-site.xml pour les NameNode et DataNode. Sécurisation de yarn avec la mise en oeuvre d'un proxy et d'un Linux Container Executor.

Exploitation

  • Installation d'une grappe Hadoop. Lancement des services.
  • Principe de la supervision des éléments par le NodeManager.
  • Présentation de Ganglia,Kibana
  • Travaux pratiques :
  • Visualisation des alertes en cas d'indisponibilité d'un noeud.
  • Configuration des logs avec log4j.

Méthode pédagogique

Les travaux pratiques sont réalisés sur une distribution Hadoop Cloudera.

Méthode d'évaluation

Le dernier jour se termine par un QCM permettant d'évaluer les acquis des stagiaires.