Vue d’ensemble de l’émergence du machine learning — et des réseaux neuronaux en particulier — comme approches dominantes après des décennies de débats, et de leur rôle dans la transformation de l’IA moderne.
Vous êtes curieux de comprendre comment les machines apprennent et souhaitez explorer les principes qui sous-tendent l’Intelligence Artificielle moderne ? Alors ce cours est fait pour vous.
En 2006, Geoffrey Hinton et ses collègues publient un article fondateur montrant comment entraîner un réseau neuronal profond capable de reconnaître des chiffres manuscrits avec une grande précision — une méthode qu’ils appellent deep learning.
À l’époque, beaucoup pensaient qu’un tel entraînement était impossible. Cette percée relance l’intérêt mondial pour les réseaux neuronaux et déclenche la révolution du deep learning, qui transforme depuis l’IA dans les domaines de la vision, du langage, et bien d’autres encore.
Vue d’ensemble de l’émergence du machine learning — et des réseaux neuronaux en particulier — comme approches dominantes après des décennies de débats, et de leur rôle dans la transformation de l’IA moderne.
Du modèle de régression linéaire aux réseaux neuronaux profonds : mise en œuvre d’outils d’IA, entraînement de modèles, fonctions d’activation et de perte, métriques et bonnes pratiques, illustrés par un projet pratique en œnologie.
Principes de la convolution, architectures CNN, extraction de caractéristiques, domaines d’application clés, et mise en pratique via la classification de chiffres manuscrits (MNIST).
Autoencodeurs et autoencodeurs variationnels : reconstruction, détection d’anomalies, génération de données et extraction de caractéristiques dans différents domaines.
Le rôle des données en IA, les défis de représentation, les biais et erreurs, et la manière dont les embeddings et espaces latents améliorent l’apprentissage et la compréhension des modèles.
RNN, LSTM, GRU, architectures Transformers, mécanismes d’attention, pré-entraînement et fine-tuning de BERT, et innovations émergentes.
Origines, pré-entraînement et adaptation, alignement, génération de texte.
Préparation des données, conception de modèles, choix des fonctions de perte et d’optimisation, entraînement, régularisation, réglage d’hyperparamètres, évaluation, robustesse, transfert d’apprentissage et bonnes pratiques.