Organisme de Formation aux technologies et métiers de L'informatique

Formation Mise en oeuvre du Deep Learning

Au-delà du Machine Learning, le Deep Learning

Informations générales

DEC107
3 jours (21h)
2 400 €HT

Objectifs

Après ce cours, vous serez capable de :

  • Pouvoir maîtriser les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • comprendre et d'appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
  • Connaître les différents modes de déploiement de ces modèles

Public

Ce cours s'adresse avant tout aux personnes suivantes :

  • Ingénieurs, analystes, responsables marketing Data Analysts, Data Scientists, Data Steward Toute personne intéressée par les spécificités du Deep Learning

Prérequis

Pour suivre ce cours, vous devez déjà posséder les connaissances suivantes :

  • Avoir suivi la formation "Les bases de l'apprentissage Machine (Machine Learning)" (DEC105) Connaissance d'un langage de programmation, idéalement python

Programme de la formation

Le Machine Learning est un élément majeur dans l'évolution du Big Data vers l'Intelligence Artificielle. En confortant cette évolution et en se rapprochant toujours plus de cette notion d'intelligence, le Deep Learning qui repose sur des traitements distribués dans des réseaux étendus de neurones (ce qui démultiplie les capacités d'analyse des informations) offre de nouvelles possibilités. Pourquoi ? Puisque bien au-delà d'interprétations évolutives, il permet de bénéficier de prévisions, de projections, de conseils mais aussi de nouveaux services tels que la reconnaissance faciale, d'images ou de sons. Les participants à cette formation se familiariseront avec les différents types de réseaux de neurones et apprendront à mettre en place des solutions de Deep Learning.

Introduction

  • L'avènement du Deep Learning
  • Deep Learning Time line
  • Que peuvent apprendre les machines ?

Réseaux de neurones simples

  • Le Perceptron
  • Le Perceptron multi-couches
  • L'entrainement d'un Perceptron
  • Principe de back propagation
  • Les optimiseurs du Deep Learning
  • La régularisation des réseaux de neurones
  • Techniques de réglages des NN
  • Lab : mise en oeuvre d'un Perceptron Multi-couches

Réseaux de neurones convolutifs (convolutional neural networks - CNNs)

  • Pourquoi ce type de réseaux
  • Principe de fonctionnement des CNNs
  • Les champs de réceptions locaux
  • Les poids partagés
  • Convolution - notion de Padding
  • Convolution - Principe du calcul
  • Les couches de sous-échantillonnage : pooling
  • Les CNNs très profonds : DCNNs
  • Modèles CNNs - Concours ImageNet
  • Architectures DCNNs
  • Mécanisme d'Inception : Google
  • L'apprentissage par transfert : Transfer Learning
  • La promesse des réseaux de Capsules

Réseaux de neurones auto-encodeurs et variationnels (AEs et VAEs)

  • Auto-encodeurs génériques : Principes de fonctionnement ; Choix des fonctions d'encodage/décodage ; L'opération de "déconvolution" ; Usages des auto-encodeurs et modes d'apprentissage
  • Auto-encodeurs variationnels : variational autoencoders : Pourquoi les VAEs ; Principes de fonctionnement ; Modèle d'inférence variationnelle ; Fonction de perte des VAEs ; Optimisation : astuce du re-paramétrage ; Exemple de mise en oeuvre d'un VAE ; Différentes variantes courantes des VAEs

Réseaux antagonistes génératifs (generative adversial networks - GANs)

  • L'exemple des Deep Fake Faces
  • Taxonomie des modèles génératifs
  • Publication fondatrice des GANs
  • Les GANs, des réseaux en coopétition
  • Modèles générateurs et discriminants
  • Intérêts des GANs
  • Problématiques classiques des GANs
  • Taxonomies des GANs
  • Principes de fonctionnement des GANs standards
  • Principes d'entraînement
  • Approche formelle de l'entraînement
  • Les GANS convolutionnels profonds type DCGANs
  • Focus sur des GANs de référence plus avancés
  • L'apprentissage progressif type PROGANS
  • L'apprentissage conditionnel type CGANS
  • La captation de traits distants type SAGANS
  • L'apprentissage cyclique type CYCLEGANS
  • Le transfert de style type STYLEGANS
  • Synthèse modèles GANS

Réseaux de neurones séquentiels (RNNs, Transformers, etc.)

  • Introduction
  • Les réseaux neuronaux récursifs simples
  • Les différentes topologies des RNNs
  • L'évanescence et l'explosion des gradients
  • La variante LSTM des RNNs
  • Autre variante : GRULes RNNs bidirectionnels
  • Le Traitement de très longues séquences
  • L'approche pure convolutive du modèle Wavenet
  • Les approches encodeur - décodeur
  • Les réseaux SequenceToSequence simples : seq2sec)
  • L'entraînement d'un réseau seq2seq
  • L'inférence d'un réseau seq2sec
  • Le mécanisme “Attention”
  • Un scoring de correspondance entre éléments
  • Attention : Alignement dynamique des poids
  • Attention : calcul de la fonction d'alignement
  • L'architecture disruptive des Transformers
  • L'approche Key, Value et Query
  • Illustration du calcul d'alignement
  • Un mécanisme Multi-têtes d'attention
  • Qu'apporte un mécanisme Self-Attention
  • Architecture complète des Transformers
  • Hyperparamètres clés des Transformers

Réseaux de neurones profonds auto-apprenants

  • L'apprentissage profond par renforcement : deep reinforcement learning - DRL
  • Principes de fonctionnement
  • Cadre Markovien
  • Notions de valeur d'état et de politique
  • Processus de décision Markovien : MDP
  • Résolution par différents apprentissages
  • Taxonomies des algorithmes RL
  • Algorithmes profonds basés sur la valeur : Principe d'optimalité de Bellman
  • La valeur d'action Q
  • Apprentissage profond de la valeur d'action Q
  • Principes du fonctionnement des DQN : deep Q network
  • Approche par exploration - exploitation
  • La relecture d'expérience : experience replay
  • Principe d'entraînement du réseau Q
  • Variante DDQN
  • Algorithmes profonds basés sur la valeur : Méthodes types Gradient de la politique
  • Approche REINFORCE : principes et formalisme
  • Modélisation de la politique
  • Théorème du Gradient de la Politique
  • Algorithme REINFORCE
  • Algorithmes mixtes : Variante REINFORCE avec base de référence
  • Autres variantes : ACTOR-CRITIC, A2C
  • ALFAGO et évolutions

Les modèles massifs

  • Une loi d'échelle fondamentale
  • Évolution temporelle des Large Language Models : LLMs
  • Le bénéfice d'un apprentissage large non supervisé
  • L'architecture Transformer revisitée
  • Arbre d'évolution des LLMs
  • Dichotomie des modèles discriminants et génératifs
  • BERT - Un modèle fondateur des LLMs
  • Architecture du modèle Transformer Encodeur
  • Pré entraînement et réglage fin
  • GPTs - L'apprentissage multitâche non supervisé
  • ChatGPT - La performance de l'apprentissage en context
  • Architecture Transformer décodeur simple
  • Détails des hyperparamètres d'un modèle ouvert GPT
  • L'apprentissage non supervisé autorégressif
  • Le réglage fin par prompts : few shot learning
  • DALL-E - Une déclinaison massive pour l'image
  • Modèles multi-modaux : texte, image)
plus d'infos

Méthode pédagogique

Une pédagogie basée sur l'alternance de phases théoriques, d'ateliers de mise en pratique, de retours d'expériences et de séances d'échanges. Les ateliers pratiques réalisés sur Python mais également en partie en R viennent compléter les phases de cours théoriques. Le partage de bonnes pratiques de la part de consultants experts en Intelligence Artificielle

Méthode d'évaluation

Tout au long de la formation, les exercices et mises en situation permettent de valider et contrôler les acquis du stagiaire. En fin de formation, le stagiaire complète un QCM d'auto-évaluation.

Suivre cette formation à distance

  • Un ordinateur avec webcam, micro, haut-parleur et un navigateur (de préférence Chrome ou Firefox). Un casque n'est pas nécessaire suivant l'environnement.
  • Une connexion Internet de type ADSL ou supérieure. Attention, une connexion Internet ne permettant pas, par exemple, de recevoir la télévision par Internet, ne sera pas suffisante, cela engendrera des déconnexions intempestives du stagiaire et dérangera toute la classe.
  • Privilégier une connexion filaire plutôt que le Wifi.
  • Avoir accès au poste depuis lequel vous suivrez le cours à distance au moins 2 jours avant la formation pour effectuer les tests de connexion préalables.
  • Votre numéro de téléphone portable (pour l'envoi du mot de passe d'accès aux supports de cours et pour une messagerie instantanée autre que celle intégrée à la classe virtuelle).
  • Selon la formation, une configuration spécifique de votre machine peut être attendue, merci de nous contacter.
  • Pour les formations incluant le passage d'une certification la dernière journée, un voucher vous est fourni pour passer l'examen en ligne.
  • Pour les formations logiciel (Adobe, Microsoft Office...), il est nécessaire d'avoir le logiciel installé sur votre machine, nous ne fournissons pas de licence ou de version test.
  • Horaires identiques au présentiel.

Mis à jour le 03/12/2025
Le contenu peut faire l'objet de légères adaptations selon les besoins et la progression des participants.