Organisme de Formation aux technologies et métiers de L'informatique

Formation Intelligence Artificielle (IA) et outils du Deep Learning (Tensorflow, Caffe, Pytorch...)

Comprendre leurs apports

Informations générales

IAPRD
3 jours (21h)
2 550 €HT

Objectifs

Après ce cours, vous serez capable de :

  • Distinguer les apports du Deep Learning et de l'IA, les principes de fonctionnement et les différents outils disponibles
  • Décrire les concepts de Machine Learning et l'évolution vers le Deep Learning (réseaux de neurones profonds)
  • Reconnaître les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • Identifier les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
  • Mettre en oeuvre les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  • Expliquer les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils.
plus d'infos

Public

Ce cours s'adresse avant tout aux personnes suivantes :

  • Toute personne intéressée par le Deep Learning et les réseaux de neurones : ingénieurs, analystes, Data Scientists, Data Analysts, Data Steward, développeurs...

Prérequis

Pour suivre ce cours, vous devez déjà posséder les connaissances suivantes :

  • Avoir une culture informatique générale.
  • Il est recommandé de posséder des notions de probabilités et statistiques.

Programme de la formation

Comprendre les concepts de Machine Learning et l'évolution vers le Deep Learning (réseaux de neurones profonds)

  • Définitions et positionnement IA, Deep Learning et Machine Learning
  • Les apports du Deep Learning, état de l'art
  • Outils disponibles
  • Exemple de projets
  • Domaines d'application et exemples
  • Présentation de DeepMind
  • Outils Deep Learning de haut niveau : Keras / TensorFlow, Caffe / PyTorch, Lasagne
  • Mise en oeuvre sur Cloud AutoML : langages naturels, traduction, reconnaissance d'images...

Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones

  • Fonctionnement d'un réseau de neurones
  • Comprendre le fonctionnement de l'apprentissage d'un réseau de neurones
  • Comprendre la rétro-propagation de l'erreur et la convergence
  • Comprendre la descente de gradient
  • Les fonctions d'erreur : MSE, Binary Cross Entropy, les optimiseurs SGD, RMSprop, Adam
  • Définitions : couche, epochs, batch size, itérations, loss, learning rate, momentum
  • Optimiser un entraînement par découpage d'entraînements peu profonds
  • Comprendre le principe des hyper-paramètres
  • Choix des hyper-paramètres
  • Construire un réseau capable de reconnaître une courbe

Connaître les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs

  • Les réseaux de neurones : principe, différents types de réseaux de neurones (artificiels, convolutifs, récurrents...)
  • Les différentes formes de réseaux : MultiLayer Perceptron FNN / MLP, CNN
  • Couches d'entrée, de sortie et de calcul
  • Fonctionnement d'une couche de convolution
  • Définitions : kernel, padding, stride
  • Fonctionnement d'une couche de Pooling
  • API standard, modèles d'apprentissage
  • Apprendre à lire une courbe d'apprentissage
  • Les modèles de Deep Learning pour Keras : Xception, Inception, ResNet, VGG, LeNet
  • Construction d'un réseau de neurones de reconnaissance d'images
  • Comparaison de courbes d'apprentissage avec TensorFlow sur plusieurs paramètres

Appréhender les modèles plus avancés : auto-encodeurs, GAN, apprentissage par renforcement

  • Représentations des données
  • Bruits
  • Couches d'encodage : codage entier, one-hot, embedding layer
  • Notion d'autoencodeur
  • Auto-encodeurs empilés, convolutifs, récurrents
  • Comprendre les réseaux antagonistes génératifs (GAN) et leurs limites de convergences
  • Apprentissage par transfert
  • Comment optimiser les récompenses ?
  • Evolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory)
  • Traitement NLP : encodage des caractères et des mots, traduction
  • Entraînement d'un auto-encodeur variationnel sur un jeu d'images

Comprendre les méthodologies de mise en place de réseaux de neurones

  • Préparation des données, régularisation, normalisation, extraction des caractéristiques
  • Optimisation de la politique d'apprentissage
  • Exploitation des modèles, mise en production
  • TensorFlow Hub, Serving
  • Visualiser les reconstructions
  • Mise en place d'un serveur de modèles et d'une application TFLite

Comprendre les points forts et les limites de ces outils

  • Mise en évidence des problèmes de convergence et du Vanishing Gradient
  • Les erreurs d'architecture
  • Comment distribuer un réseau de neurones
  • Les limites du Deep Learning : imiter / créer
  • Cas concrets d'utilisation
  • Introduction aux machines quantiques

Méthode pédagogique

Chaque participant travaille sur un poste informatique qui lui est dédié. Un support de cours lui est remis soit en début soit en fin de cours. La théorie est complétée par des cas pratiques ou exercices corrigés et discutés avec le formateur. Le formateur projette une présentation pour animer la formation et reste disponible pour répondre à toutes les questions.

Méthode d'évaluation

Tout au long de la formation, les exercices et mises en situation permettent de valider et contrôler les acquis du stagiaire. En fin de formation, le stagiaire complète un QCM d'auto-évaluation.

Mis à jour le 19/12/2025
Le contenu peut faire l'objet de légères adaptations selon les besoins et la progression des participants.