Recherche avancée
Par formation
Par date
Par ville
logo HUB Formation
Organisme de Formation
aux Technologies et métiers de L'informatique
La pédagogie au service de la technologie
Accueil > Domaines > Big Data > Big Data - Mise en œuvre pratique d'une solution complète d'analyse des données

Big Data - Mise en œuvre pratique d'une solution complète d'analyse des données

Collecte et analyse de données massives

Comprendre les besoins métier pour livrer aux décideurs des indicateurs fiables et pertinents, tel est le rôle attendu des spécialistes Big Data. Précisément conçu pour leur apprendre à mettre en œuvre une solution de Big Data en environnement Hadoop, solution phare pour les traitements Big Data, ce programme reprend le cheminement logique d’un projet d’analyse de données. De leur collecte initiale à la mise en place de solutions de stockage spécifiques permettant d’organiser un très grand volume d’information, à la réalisation de scripts Pig et Hive qui, convertis en tâches MapReduce, permettent d’agréger et de filtrer les données pour finalement les analyser, tous les aspects seront abordés.

Objectifs

  • Disposer des compétences techniques nécessaires à la mise en œuvre d’analyses Big Data
  • Comprendre le cadre juridique du stockage et de l'analyse de données
  • Savoir utiliser des outils de collecte Open Source
  • Être en mesure de choisir la bonne solution de stockage de données au regard des spécificités d'un projet (OLAP, NoSQL, graph)
  • Explorer la boite à outils technologique que constitue Hadoop et son écosystème et savoir comment utiliser chaque brique (MapReduce, HIVE, SPARK,…)
  • Apprendre à analyser les résultats et comprendre la signification des données extraites

Public

  • Chefs de projet
  • Data Scientists, Data Analysts
  • Développeurs
  • Analystes et statisticien
  • Toute personne en charge de la mise en œuvre opérationnelle d’un projet Big Data en environnement Hadoop

Prérequis

  • Avoir suivi la formation Big Data - Les fondamentaux de l'analyse de données
  • La connaissance d'un langage de programmation et du langage SQL est un plus pour suivre cette formation

Programme de la formation

Introduction

  • Objectifs
  • Schématisation du projet
  • Écosystème et stack technologique
  • Résultats attendus

Ingestion de données massives

  • Description
  • Caractéristiques clés des outils d'ingestion
  • Solutions (packagées, cloud computing et Hadoop)
  • Focus Apache NIFI
  • Focus Apache KAFKA
  • Ingestion de données en streaming NIFI on KAFKA
  • Réalisation d’un workflow NIFI d’ingestion de donnée streaming dans HDFS

Traitement de données Big Data en batch

  • Diagramme de fonctionnement
  • Solutions logicielles associées (MapReduce, Hive, Spark, …)
  • Big Data Batch scripting
  • Data Warehousing Big Data
  • Création de tables partitionnées, clusterisées et/ou transactionnelles
  • Écriture des scripts d’updates des différentes tables
  • Analytics Big Data

Traitement avancé Big Data : l’apprentissage machine

  • L’écosystème Spark
  • Schéma général de création d’un modèle de ML
  • Création d’un modèle de clusterisation de données
  • Création d’un modèle d’analyse prédictive supervisé
  • Enrichissement d’un DWH avec Spark
  • Sauvegarde d’un modèle d’apprentissage machine
  • Application d’un modèle ML

Stockage de données distribuées

  • Principes des bases de donnes distribuées
  • Solutions (NoSQL, NewSQL)
  • Création d’une base de données distribuée
  • Ingestion de données dans une base de données distribuées
  • Interrogation d’une base de données distribuées

Automatisation de chaîne de traitement Batch

  • L’orchestrateur Oozie
  • Ordonnancement de scripts HIVE
  • Combinaison avec des scripts SPARK
  • Création d’un worklow Oozie complet

Traitement de données massives en flux (streaming)

  • Principe de fonctionnement
  • Solutions logicielles
  • Le prétraitement de données en streaming
  • L’inscription de streams à un Hub Streaming
  • La consommation de streams auprès d’un Hub
  • Le traitement avancé de données en flux (machine learning)

Mise en œuvre dans une architecture Big Data

  • Les approches standards
  • Réalisation d’une solution complète de traitement de données type Lamda
  • Réalisation d’une solution complète de traitement de données type Kappa

Les + de cette formation

Une formation très opérationnelle durant laquelle s'alternent les phases d'apports théoriques, d'échanges, de partage d'expériences.
Les participants réalisent sur un cas concret une chaîne de traitement Big Data (Batch et Streaming).
Travail dans un environnement Cloud sur une des distributions Hadoop les plus utilisées.
Les retours d'expérience et conseils de consultants experts du domaine.