Vue d’ensemble de l’émergence du machine learning — et des réseaux neuronaux en particulier — comme approches dominantes après des décennies de débats, et de leur rôle dans la transformation de l’IA moderne.
Ce cours d’introduction au deep learning présente les concepts fondamentaux, les principales architectures et quelques applications emblématiques de ce domaine majeur de l’intelligence artificielle. Il s’adresse à des étudiant·e·s de niveau L3 disposant de bases en programmation et en apprentissage automatique.
Le cours propose :
une introduction à l’histoire et à l’évolution du deep learning, notamment son essor depuis les travaux de Geoffrey Hinton à partir de 2006 ;
la compréhension des principes de base des réseaux de neurones artificiels ;
la découverte des architectures classiques, telles que les réseaux de neurones convolutionnels (CNN) pour le traitement d’images et les réseaux de neurones récurrents (RNN) pour les données séquentielles ;
une présentation des principales techniques d’apprentissage et d’optimisation (descente de gradient, Dropout, Batch Normalization) ;
des mises en pratique en Python, à l’aide de TensorFlow/Keras, afin d’illustrer concrètement les concepts abordés ;
un aperçu des applications du deep learning en vision par ordinateur, en traitement automatique du langage naturel (NLP) et dans d’autres domaines de l’IA.
Vue d’ensemble de l’émergence du machine learning — et des réseaux neuronaux en particulier — comme approches dominantes après des décennies de débats, et de leur rôle dans la transformation de l’IA moderne.
Du modèle de régression linéaire aux réseaux neuronaux profonds : mise en œuvre d’outils d’IA, entraînement de modèles, fonctions d’activation et de perte, métriques et bonnes pratiques, illustrés par un projet pratique en œnologie.
Principes de la convolution, architectures CNN, extraction de caractéristiques, domaines d’application clés, et mise en pratique via la classification de chiffres manuscrits (MNIST).
Autoencodeurs et autoencodeurs variationnels : reconstruction, détection d’anomalies, génération de données et extraction de caractéristiques dans différents domaines.
Le rôle des données en IA, les défis de représentation, les biais et erreurs, et la manière dont les embeddings et espaces latents améliorent l’apprentissage et la compréhension des modèles.
RNN, LSTM, GRU, architectures Transformers, mécanismes d’attention, pré-entraînement et fine-tuning de BERT, et innovations émergentes.
Origines, pré-entraînement et adaptation, alignement, génération de texte.
Préparation des données, conception de modèles, choix des fonctions de perte et d’optimisation, entraînement, régularisation, réglage d’hyperparamètres, évaluation, robustesse, transfert d’apprentissage et bonnes pratiques.