Organisme de Formation aux technologies et métiers de L'informatique
hadoop

Formation Hadoop : développement

Informations générales

HCB033
2 jours (14h)
1 610 €HT
46 €HT (en option)

Objectifs

Après ce cours, vous serez capable de :

  • Identifier l’écosystème Hadoop Cloudera/Hortonworks
  • Présenter les principes du Framework Hadoop
  • Mettre en oeuvre des tâches Hadoop pour extraire des éléments pertinents d'ensembles de données volumineux et variés
  • Développer des algorithmes parallèles efficaces avec MapReduce
  • Charger des données non structurées des systèmes HDFS et HBase

Public

Ce cours s'adresse avant tout aux personnes suivantes :

  • Développeurs, Chefs de projets, data-scientists, architectes, ...

Prérequis

Pour suivre ce cours, vous devez déjà posséder les connaissances suivantes :

  • Avoir la connaissance d'un langage de programmation objet comme Java et du scripting

Programme de la formation

Comprendre l’écosystème Hadoop

  • Les fonctionnalités du framework Hadoop. Les différentes versions.
  • Distributions : Apache, Cloudera, Hortonworks, EMR, MapR, DSE.
  • Spécificités de chaque distribution.
  • Architecture et principe de fonctionnement. Zoom sur la distribution Cloudera/Hortonworks
  • Terminologie : NameNode, DataNode, ResourceManager, NodeManager. Rôle des différents composants. Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce, Hue, Oozie, Pig, Hive, HBase, Zeppelin, ...
  • Atelier : Manipulations de base sur la console Hadoop

Présenter les principes du Framework Hadoop

  • Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce
  • Utilisation de yarn pour piloter les jobs map/reduce.
  • Infrastructure/mise en oeuvre : Avro, Ambari, Zookeeper, Pig, Tez, Oozie.
  • Vue d'ensemble.
  • Gestion des données. Exemple de sqoop.
  • Restitution : webhdfs, hive, Hawq, Mahout, ElasticSearch, ...
  • Outils complémentaires de traitement : Spark, SparkQL, SparkR, Spark/ML, Storm, BigTop ; outils de développement : Cascading, Scalding, Flink; outils d'analyse : RHadoop, Hama, Chukwa, kafka
  • Atelier : exécution de jobs sur la ferme Hadoop

Mettre en oeuvre des tâches Hadoop pour extraire des éléments pertinents d'ensembles de données volumineux et variés

  • Lac de données. Construction et utilisation. Exploitation des données du lac.
  • Les différents outils : Yarn, MapReduce, Spark, Hive, Pig
  • Différentes solutions : calculs en mode batch, ou en temps réel,sur des flux de données ou des données statiques.
  • Principe de map/reduce et exemples d'implémentations, langages et sur-couches.
  • Découpage des travaux (jobs) avec stockage intermédiaire. Le format parquet.
  • Atelier : développement d'un extracteur de données et qualification de la donnée.

Développer des algorithmes parallèles efficaces avec MapReduce

  • Principe et objectifs du modèle de programmation map/reduce.
  • Configuration des jobs, notion de configuration.
  • Les interfaces principales : mapper, reducer, fonctions map() et reduce(). Couples (clés, valeurs).
  • Implémentation par le framework Hadoop.
  • Etude de la collection d'exemples.
  • Atelier : Réduction de la donnée extraite précedemment. Recherche et scores.

Charger des données non structurées des systèmes HDFS et HBase

  • Format des données : texte, json, csv, parquet, ...
  • Format des entrées et sorties d'un job map/reduce : InputFormat et OutputFormat.
  • Atelier : type personnalisés : création d'un writable spécifique. Utilisation. Contraintes.
  • Accès à des systèmes externes : S3, hdfs, har, hbase, ...
  • Outils d'interfaçage entre les différents composants
  • Atelier : Ecriture d'un ETL HDFS vers HBase

Méthode pédagogique

Chaque participant travaille sur un poste informatique qui lui est dédié. Un support de cours lui est remis soit en début soit en fin de cours. La théorie est complétée par des cas pratiques ou exercices corrigés et discutés avec le formateur. Le formateur projette une présentation pour animer la formation et reste disponible pour répondre à toutes les questions.

Méthode d'évaluation

Tout au long de la formation, les exercices et mises en situation permettent de valider et contrôler les acquis du stagiaire. En fin de formation, le stagiaire complète un QCM d'auto-évaluation.

Mis à jour le 29/01/2024