> Formations > Technologies numériques > Développement logiciel > Python > Formation Deep Learning avec PyTorch > Formations > Technologies numériques > Formation Deep Learning avec PyTorch

Formation : Deep Learning avec PyTorch

Deep Learning avec PyTorch



New

Grâce à sa syntaxe simple et intuitive, PyTorch, bibliothèque logicielle Python, est considérée comme plus aisée à apprendre que les autres frameworks deep learning. Sa large communauté permet d’obtenir une documentation utile à tous les développeurs, même débutants en apprentissage profond et en calcul tensoriel.


INTER
INTRA
SUR MESURE

Cours pratique en présentiel ou en classe à distance
Disponible en anglais, à la demande

Réf. DLT
  4j - 28h00
Prix : 2440 € H.T.
Pauses-café et
déjeuners offerts




Grâce à sa syntaxe simple et intuitive, PyTorch, bibliothèque logicielle Python, est considérée comme plus aisée à apprendre que les autres frameworks deep learning. Sa large communauté permet d’obtenir une documentation utile à tous les développeurs, même débutants en apprentissage profond et en calcul tensoriel.


Objectifs pédagogiques
À l’issue de la formation, le participant sera en mesure de :
Savoir manipuler des images et du texte avec PyTorch
Mettre en place un entraînement de réseaux de neurones à partir de zéro ou en utilisant le transfer learning
Connaître les modules de PyTorch pour charger les données
Avoir des notions sur les entraînements distribués
Avoir des notions sur les nouvelles méta-architectures telles que les transformers

Public concerné
Concepteurs-développeurs en machine learning, data scientists, ingénieurs en IA.

Prérequis
Pratique de Python et du machine learning.

Modalités d'évaluation
Le formateur évalue la progression pédagogique du participant tout au long de la formation au moyen de QCM, mises en situation, travaux pratiques…
Le participant complète également un test de positionnement en amont et en aval pour valider les compétences acquises.

Programme de la formation

Prise en main de PyTorch

  • PyTorch et ses principes fondamentaux.
  • Installer PyTorch et les composantes associées.
  • Comparaison entre les librairies Numpy et PyTorch.
  • PyTorch vs Tensorflow.
  • Principes du calcul distribué.
Travaux pratiques
Installation de PyTorch. Manipulation de tenseurs et de matrices.

Sous-modules de PyTorch pour l'entraînement des réseaux de neurones

  • Présentation des sous-modules de Pytorch pour l'entraînement des réseaux de neurones.
  • Rappels sur la propagation forward.
  • Rappels sur la rétropropagation des gradients.
  • Chargement des données.
  • Définir un réseau neuronal de convolution avec le package torch.nn, entraîner le modèle, le tester.
Travaux pratiques
Mise en place d'un réseau CNN pour la classification d'images.

Transfer learning et utilisation de réseaux pré-entrainés

  • Principe du transfer learning.
  • Exemples de mise en œuvre de l'apprentissage par transfert.
  • Les étapes de la méthode de transfer learning dans les projets de machine learning.
  • Utilisation de réseaux pré-entrainés.
Travaux pratiques
Reprise d'exercices précédents, pour améliorer les métriques avec la mise en place du transfer learning.

Les méta-architectures pour des projets complexes

  • Présentation des méta-architectures.
  • Problématique de détection d'objets.
  • Problématique de segmentation d'images.
  • L'architecture réseau UNet : les blocs codeur-décodeur et PyTorch.
Travaux pratiques
Création d'un modèle UNet simple pour la segmentation d'images. Comparaison avec le transfer learning pour UNet.

Le NLP avec PyTorch et spaCy

  • Le traitement automatique du langage naturel (NLP, pour Natural Language Processing).
  • L'intérêt de PyTorch et de spaCy.
  • Principe des pipelines.
  • Processing de texte .
  • Entraînement de réseaux récurrents / biLSTM.
  • Utilisation de PyTorch et spaCy pour le NLP.
Travaux pratiques
Topic modelling sur des avis de films. Analyse des sentiments sur des tweets.

Transformers et mécanismes d'attention

  • Les transformers pour le traitement automatique des langues.
  • Détail des mécanismes d'attention.
  • Le mécanisme d'attention appliqué à une séquence : auto-attention.
  • Fonctionnement des transformers.
Travaux pratiques
Mise en place d'un modèle de traduction.


Parcours certifiants associés
Pour aller plus loin et renforcer votre employabilité, découvrez les parcours certifiants qui contiennent cette formation :

Solutions de financement
Plusieurs solutions existent pour financer votre formation et dépendent de votre situation professionnelle.
Découvrez-les sur notre page Comment financer sa formation ou contactez votre conseiller formation.

Avis clients
4,5 / 5
Les avis clients sont issus des évaluations de fin de formation. La note est calculée à partir de l’ensemble des évaluations datant de moins de 12 mois. Seules celles avec un commentaire textuel sont affichées.
NICOLAS D.
12/11/24
5 / 5

Très positif. La formation permet de disposer de bases satisfaisantes pour envisager l’utilisation de pytorch sur des use-case variés. Le scope étendu permet de "réviser" certains concepts et d’en approfondir de nouveaux. La partie du support de cours sur le fonctionnement des réseaux est très intéressante et formative.
BENOIT V.
12/11/24
5 / 5

Contenu très intéressant; Les cours sur le RNN et transformers mériteraient de prendre plus de temps.
HOANG TRUNG N.
12/11/24
4 / 5

J’apprécie l’équilibre entre le théorie et la quantité/qualité du TP.



Horaires
les cours ont lieu de 9h à 12h30 et de 14h à 17h30.
Les participants sont accueillis à partir de 8h45. Les pauses et déjeuners sont offerts.
Pour les stages pratiques de 4 ou 5 jours, quelle que soit la modalité, les sessions se terminent à 16h le dernier jour.

Dates et lieux
Sélectionnez votre lieu ou optez pour la classe à distance puis choisissez votre date.
Classe à distance
Dernières places
Session garantie