> formation Technologies numériques > formation Big Data, Intelligence Artificielle > formation IA, Machine Learning, analyse de données > formation Deep Learning et réseaux de neurones, les fondamentaux
Toutes nos formations IA, Machine Learning, analyse de données

Formation Deep Learning et réseaux de neurones, les fondamentaux

4,6 / 5
Séminaire
Best
Durée : 3 jours
Réf : DRN
Prix  2021 : 2750 € H.T.
Pauses et déjeuners offerts
  • Programme
  • Participants / Prérequis
  • Intra / sur-mesure
  • avis vérifiés
Programme

L'Intelligence Artificielle a bouleversé de nombreux domaines scientifiques et révolutionné un grand nombre de secteurs économiques. Néanmoins, sa présentation dans les grands médias relève souvent du fantasme, très éloignée de ce que sont réellement les domaines du Machine Learning ou du Deep Learning. Ce séminaire vous permettra de maîtriser les concepts clé du Deep Learning et de ses différents domaines de spécialisation. Vous découvrirez également les principales architectures de réseau existant aujourd'hui.

Objectifs pédagogiques

  • Comprendre les clés fondamentales d'une approche Machine ou Deep Learning
  • Maîtriser les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
  • Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
  • Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils

Méthodes pédagogiques

Ce séminaire se base sur des présentations, des échanges et des études de cas. Des outils comme Lasagne ou Keras seront présentés.
PROGRAMME DE FORMATION

Introduction IA, Machine Learning et Deep Learning

  • Historique, concepts de base et applications de l'intelligence artificielle loin des fantasmes portés par ce domaine.
  • Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels.
  • Algorithmes génétiques : faire évoluer une population d'agents virtuels par sélection.
  • Machine Learning usuel : définition.
  • Types de tâches : Supervised Learning, Unsupervised Learning, Reinforcement Learning.
  • Types d'actions : classification, régression, clustering, estimation de densité, réduction de dimensionalité.
  • Exemples d'algorithmes Machine Learning : régression linéaire, Naive Bayes, Random Tree.
  • Machine Learning versus Deep Learning : pourquoi le ML reste aujourd'hui l'état de l'art (Random Forests & XGBoosts) ?

Concepts fondamentaux d'un réseau de neurones

  • Rappel de bases mathématiques.
  • Le réseau de neurones : architecture, fonctions d'activation et de pondération des activations précédentes...
  • L'apprentissage d'un réseau de neurones : fonctions de coût, back-propagation, stochastic gradient descent...
  • Modélisation d'un réseau de neurones : modélisation des données d'entrée et de sortie selon le type de problème.
  • Approximer une fonction par un réseau de neurones. Approximer une distribution par un réseau de neurones.
  • Data Augmentation : comment équilibrer un dataset ?
  • Généralisation des résultats d'un réseau de neurones.
  • Initialisations et régularisations d'un réseau de neurones : L1/L2 Regularization, Batch Normalization.
  • Optimisations et algorithmes de convergence.

Démonstration
Approximation d'une fonction et d'une distribution par un réseau de neurones.

Outils usuels Machine Learning et Deep Learning

  • Outils de gestion de donnée : Apache Spark, Apache Hadoop.
  • Outils Machine Learning usuel : Numpy, Scipy, Sci-kit.
  • Frameworks DL haut niveau : PyTorch, Keras, Lasagne.
  • Frameworks DL bas niveau : Theano, Torch, Caffe, Tensorflow.

Démonstration
Applications et limites des outils présentés.

Convolutional Neural Networks (CNN)

  • Présentation des CNNs : principes fondamentaux et applications.
  • Fonctionnement fondamental d'un CNN : couche convolutionnelle, utilisation d'un kernel, padding et stride...
  • Architectures CNN ayant porté l'état de l'art en classification d'images : LeNet, VGG Networks, Network in Network...
  • Utilisation d'un modèle d'attention.
  • Application à un cas de figure de classification usuel (texte ou image).
  • CNNs pour la génération : super-résolution, segmentation pixel à pixel.
  • Principales stratégies d'augmentation des Feature Maps pour la génération d'une image.

Etude de cas
Innovations apportées par chaque architecture CNN et leurs applications plus globales (convolution 1x1 ou connexions résiduelles).

Recurrent Neural Networks (RNN)

  • Présentation des RNNs : principes fondamentaux et applications.
  • Fonctionnement fondamental du RNN : hidden activation, back propagation through time, unfolded version.
  • Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory).
  • Problèmes de convergence et vanising gradient.
  • Types d'architectures classiques : prédiction d'une série temporelle, classification...
  • Architecture de type RNN Encoder Decoder. Utilisation d'un modèle d'attention.
  • Applications NLP : word/character encoding, traduction.
  • Applications vidéo : prédiction de la prochaine image générée d'une séquence vidéo.

Démonstration
Différents états et évolutions apportées par les architectures Gated Recurrent Units et Long Short Term Memory.

Modèles générationnels : VAE et GAN

  • Présentation des modèles générationnels Variational AutoEncoder (VAE) et Generative Adversarial Networks (GAN).
  • Auto-encoder : réduction de dimensionnalité et génération limitée.
  • Variational AutoEncoder : modèle générationnel et approximation de la distribution d'une donnée.
  • Définition et utilisation de l'espace latent. Reparameterization trick.
  • Fondamentaux du Generative Adversarial Networks.
  • Convergence d'un GAN et difficultés rencontrées.
  • Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.
  • Applications de génération d'images ou de photographies, génération de texte, super résolution.

Démonstration
Applications des modèles générationnels et utilisation de l'espace latent.

Deep Reinforcement Learning

  • Reinforcement Learning.
  • Utilisation d'un réseau de neurones pour approximer la fonction d'état.
  • Deep Q Learning : experience replay et application au contrôle d'un jeu vidéo.
  • Optimisations de la politique d'apprentissage. On-policy et off-policy. Actor critic architecture. A3C.
  • Applications : contrôle d'un jeu vidéo simple ou d'un système numérique.

Démonstration
Contrôle d'un agent dans un environnement défini par un état et des actions possibles.

Participants / Prérequis

» Participants

Ingénieurs, Data Scientists désirant s'initier aux réseaux de neurones et au Deep Learning.

» Prérequis

Avoir des bases en programmation. Avoir une bonne maîtrise des outils informatiques et des statistiques.
Intra / sur-mesure

Demande de devis intra-entreprise
(réponse sous 48h)

Vos coordonnées

En cochant cette case, j’atteste avoir lu et accepté les conditions liées à l’usage de mes données dans le cadre de la réglementation sur la protection des données à caractère personnel (RGPD).
Vous pouvez à tout moment modifier l’usage de vos données et exercer vos droits en envoyant un email à l’adresse rgpd@orsys.fr
En cochant cette case, j’accepte de recevoir les communications à vocation commerciale et promotionnelle de la part d’ORSYS Formation*
Vous pouvez à tout moment vous désinscrire en utilisant le lien de désabonnement inclus dans nos communications.
* Les participants inscrits à nos sessions de formation sont également susceptibles de recevoir nos communications avec la possibilité de se désabonner à tout moment.
Avis vérifiés
picto avis vérifiés
Lena D. 08/12/2020
5 / 5
Formation très intéressante

Alexandre A. 08/12/2020
5 / 5
Contenu très complet avec de nombreux exemples de réalisation et détails sur les modèles mathématiques utilisés et du code informatique. Parfois complexe à suivre en mathématique pour un stagiaire qui n'en a plus fait depuis longtemps ,)

Ludwik K. 08/12/2020
5 / 5
Antoine a très bien explicité des concepts mathématiques complexe qui ont permit une bonne compréhension des mécanismes en œuvre !!! Les exemples montrés ont permit également de se projeter sur des cas concrets.

Yoann P. 08/12/2020
5 / 5
très bien, très complet pour une première formation sur le sujet.

Georges N. 08/12/2020
5 / 5
J'ai apprécié, les exemples d'illustration. Nous avons reçu des liens très utiles pour compléter le support et la formation. Il serait peut-être utile de les intégrer sous forme d'annexe avec une page qui explicite les sigles

Tatiana S. 08/12/2020
5 / 5
Antoine Liutkus est très bon formateur, passionné. Il transmet ses connaissances avec beaucoup d'intérêt. Je suis ravie d'assister son cours.

François L. 08/12/2020
5 / 5
J'ai apprécié les références vers la documentation et les exemples afin de continuer nos recherches études sur le sujet.

Laurent G. 21/09/2020
5 / 5
Nombreux exemples facilitant l'assimilation Contenu un peu trop dense le dernier jour

Damien V. 21/09/2020
5 / 5
Contenue de la formation très fournis, explications du formateur très clair. Les sujets sont bien illustré par des exemples d'application. On voudrait juste avoir un peu plus de temps pour voir d'avantage d'exemple de code ou des etudes de cas.

Claudine P. 21/09/2020
5 / 5
Excellente qualité à tout niveau. Excellente maîtrise du sujet. Très réactif. Très pédagogue. Le formateur a répondu à toutes les questions en live allant même chercher des illustrations sur internet. Points réguliers pour répondre aux questions et prendre en compte les remarques pour le support. Beaucoup d'exemples visuels très passionnants. La dernière partie est un peu trop théorique. L

Ayoub G. 21/09/2020
5 / 5
Antoine Liutkus (le formateur) est très compétent et pédagogue. Il prend en compte les besoins des élèves pour approfondir les sujets demandés et adapter la formation. La formation donne bien une vue d'ensemble des architecture de Deep Learning et leurs applications.

Christophe L. 21/09/2020
5 / 5
Très bonne formation. Bon balayage des concepts , de l'histoire de la recherche et des applications. Très bon formateur, s'adaptant bien aux questions et visant une bonne compréhension pour un sujet complexe

Daniel M. 21/09/2020
5 / 5
Sujet très intéressant, mais aussi très vaste! Il faut avoir un certain bagage mathématique. Le formateur est très bien et arrive à mettre en évidence certains concepts abstraits avec des exemple concrets. Bravo

Hakim M. 08/09/2020
4 / 5
Très bonne formation, un peu difficile par moment pour moi car je n'ai aucun vécu ni théorique ni pratique dans le domaine. L'animateur fait preuve d'une expertise indéniable et est toujours prompt à répondre aux questions posées.

Adrien S. 08/09/2020
5 / 5
Formateur très intéressant et compétent sur le sujet.

Henrique O. 20/07/2020
4 / 5
sujet trop dense pour trois jours

Pécot N. 20/07/2020
4 / 5
Cours complet mais un peu brouillon, le cours à distance n'a pas aidé

Aurelien N. 20/07/2020
4 / 5
Plutôt intéressant et informatif pour la découverte du Deep Learning et réseaux de neurones
Avis client 4,6 / 5

Les avis client sont issus des feuilles d’évaluation de fin de formation. La note est calculée à partir de l’ensemble des avis datant de moins de 12 mois.

CLASSE A DISTANCE

En inter et en intra-entreprise
Inscrivez-vous ou contactez-nous !

Pour vous inscrire

Cliquez sur la ville, puis sur la date de votre choix.
[+]
CLASSE A DISTANCE
[+]
PARIS
[+]
AIX
[+]
BORDEAUX
[+]
BRUXELLES
[+]
GENEVE
[+]
LILLE
[+]
LUXEMBOURG
[+]
LYON
[+]
NANTES
[+]
SOPHIA-ANTIPOLIS
[+]
STRASBOURG
[+]
TOULOUSE

Horaires

Les cours ont lieu de 9h à 12h30 et de 14h à 17h30.
Les participants sont accueillis à partir de 8h45.
Pour les stages pratiques de 4 ou 5 jours, les sessions se terminent à 15h30 le dernier jour.