Passer commande via notre portail client

Partager cet article ...Print this pageEmail this to someoneTweet about this on TwitterShare on FacebookShare on Google+Share on LinkedInPin on PinterestShare on TumblrDigg this
Deep Learning et réseaux de neurones : les fondamentaux
DRN / LI-ART-167
OBJECTIFS PEDAGOGIQUESÀ la fin du cours, le stagiaire sera capable de :

  • Comprendre les clés fondamentales d’une approche Machine ou Deep Learning
  • Maîtriser les bases théoriques et pratiques d’architecture et de convergence de réseaux de neurones
  • Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
  • Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils
PUBLICIngénieurs, Data Scientists désirant s’initier aux réseaux de neurones et au Deep Learning. PRE-REQUISAvoir des bases en programmation. Avoir une bonne maîtrise des outils informatiques et des statistiques.

CONTENU

Introduction IA, Machine Learning et Deep Learning

- Historique, concepts de base et applications de l’intelligence artificielle loin des fantasmes portés par ce domaine.
- Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels.
- Algorithmes génétiques : faire évoluer une population d’agents virtuels par sélection.
- Machine Learning usuel : définition.
- Types de tâches : Supervised Learning, Unsupervised Learning, Reinforcement Learning.
- Types d’actions : classification, régression, clustering, estimation de densité, réduction de dimensionalité.
- Exemples d’algorithmes Machine Learning : régression linéaire, Naive Bayes, Random Tree.
- Machine Learning versus Deep Learning : pourquoi le ML reste aujourd’hui l’état de l’art (Random Forests & XGBoosts) ?

Concepts fondamentaux d’un réseau de neurones

- Rappel de bases mathématiques.
- Le réseau de neurones : architecture, fonctions d’activation et de pondération des activations précédentes…
- L’apprentissage d’un réseau de neurones : fonctions de coût, back-propagation, stochastic gradient descent…
- Modélisation d’un réseau de neurones : modélisation des données d’entrée et de sortie selon le type de problème.
- Approximer une fonction par un réseau de neurones. Approximer une distribution par un réseau de neurones.
- Data Augmentation : comment équilibrer un dataset ?
- Généralisation des résultats d’un réseau de neurones.
- Initialisations et régularisations d’un réseau de neurones : L1/L2 Regularization, Batch Normalization.
- Optimisations et algorithmes de convergence.

Outils usuels machine learning et deep learning

- Outils de gestion de donnée : Apache Spark, Apache Hadoop.
- Outils Machine Learning usuel : Numpy, Scipy, Sci-kit.
- Frameworks DL haut niveau : PyTorch, Keras, Lasagne.
- Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow.

Convolutional Neural Networks (CNN)

- Présentation des CNNs : principes fondamentaux et applications.
- Fonctionnement fondamental d’un CNN : couche convolutionnelle, utilisation d’un kernel, padding et stride…
- Architectures CNN ayant porté l’état de l’art en classification d’images : LeNet, VGG Networks, Network in Network…
- Utilisation d’un modèle d’attention.
- Application à un cas de figure de classification usuel (texte ou image).
- CNNs pour la génération : super-résolution, segmentation pixel à pixel.
- Principales stratégies d’augmentation des Feature Maps pour la génération d’une image.

Recurrent Neural Networks (RNN)

- Présentation des RNNs : principes fondamentaux et applications.
- Fonctionnement fondamental du RNN : hidden activation, back propagation through time, unfolded version.
- Evolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).
- Problèmes de convergence et vanising gradient.
- Types d’architectures classiques : prédiction d’une série temporelle, classification…
- Architecture de type RNN Encoder Decoder. Utilisation d’un modèle d’attention.
- Applications NLP : word/character encoding, traduction.
- Applications vidéo : prédiction de la prochaine image générée d’une séquence vidéo.

Modèles générationnels : VAE et GAN

- Présentation des modèles générationnels Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).
- Auto-encoder : réduction de dimensionnalité et génération limitée.
- Variational AutoEncoder : modèle générationnel et approximation de la distribution d’une donnée.
- Définition et utilisation de l’espace latent. Reparameterization trick.
- Fondamentaux du Generative Adversarial Networks.
- Convergence d’un GAN et difficultés rencontrées.
- Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.
- Applications de génération d’images ou de photographies, génération de texte, super résolution.

Deep Reinforcement Learning

- Reinforcement Learning.
- Utilisation d’un réseau de neurones pour approximer la fonction d’état.
- Deep Q Learning : experience replay et application au contrôle d’un jeu vidéo.
- Optimisations de la politique d’apprentissage. On-policy et off-policy. Actor critic architecture. A3C.
- Applications : contrôle d’un jeu vidéo simple ou d’un système numérique.

SESSIONS PROGRAMMEESAccès au calendrier

VALIDATION

Evaluation en fin de session

PEDAGOGIEAlternance d’exposés, de démonstrations et d’études de cas INTERVENANTSSpécialiste

MODALITES PRATIQUES

Durée : 3 jours soit 21 heures avec 7 heures par jour
Prix stagiaire : 2364,00 € TTC
Horaires : 9h – 17h30

Durée: