Université Côte d'azur

UE INFO : Apprentissage automatique

Code de l'ECUE : SLUF607

Ce cours donne droit à 6.0 ECTS.
PORTAIL SCIENCES ET TECHNOLOGIES
Informatique
Campus Valrose
Licence 3
Semestre pair
Français

PRESENTATION

Vous êtes curieux de comprendre comment les machines apprennent et souhaitez explorer les principes qui sous-tendent l’Intelligence Artificielle moderne ? Alors ce cours est fait pour vous.

En 2006, Geoffrey Hinton et ses collègues publient un article fondateur montrant comment entraîner un réseau neuronal profond capable de reconnaître des chiffres manuscrits avec une grande précision — une méthode qu’ils appellent deep learning.
À l’époque, beaucoup pensaient qu’un tel entraînement était impossible. Cette percée relance l’intérêt mondial pour les réseaux neuronaux et déclenche la révolution du deep learning, qui transforme depuis l’IA dans les domaines de la vision, du langage, et bien d’autres encore.

Responsable(s) du cours

, Anais Ollagnier

Présentiel

  • 24h de cours magistral
  • 6h de travaux dirigés
  • 24h de travaux pratiques

PREREQUIS

Avant le début du cours, je dois ...
  • La programmation Python de base
  • Les principales bibliothèques scientifiques : NumPy, Pandas et Matplotlib

OBJECTIFS

A la fin de ce cours, je devrais être capable de...
  • Acquérir la capacité de concevoir et d’implémenter des modèles de deep learning pour un large éventail d’applications réelles.
  • Développer une solide compréhension des fondements théoriques et des défis pratiques des réseaux neuronaux modernes, ainsi que de leur potentiel et de leurs limites.

CONTENU

  • Vue d’ensemble de l’émergence du machine learning — et des réseaux neuronaux en particulier — comme approches dominantes après des décennies de débats, et de leur rôle dans la transformation de l’IA moderne.

  • Du modèle de régression linéaire aux réseaux neuronaux profonds : mise en œuvre d’outils d’IA, entraînement de modèles, fonctions d’activation et de perte, métriques et bonnes pratiques, illustrés par un projet pratique en œnologie.

  • Principes de la convolution, architectures CNN, extraction de caractéristiques, domaines d’application clés, et mise en pratique via la classification de chiffres manuscrits (MNIST).

  • Autoencodeurs et autoencodeurs variationnels : reconstruction, détection d’anomalies, génération de données et extraction de caractéristiques dans différents domaines.

  • Le rôle des données en IA, les défis de représentation, les biais et erreurs, et la manière dont les embeddings et espaces latents améliorent l’apprentissage et la compréhension des modèles.

  • RNN, LSTM, GRU, architectures Transformers, mécanismes d’attention, pré-entraînement et fine-tuning de BERT, et innovations émergentes.

  • Origines, pré-entraînement et adaptation, alignement, génération de texte.

  • Préparation des données, conception de modèles, choix des fonctions de perte et d’optimisation, entraînement, régularisation, réglage d’hyperparamètres, évaluation, robustesse, transfert d’apprentissage et bonnes pratiques.

Accéder au Syllabus complet (Authentification requise)
Important
Ce syllabus n’a aucune valeur contractuelle. Son contenu est susceptible d’évoluer en cours d’année : soyez attentifs aux dernières modifications.