C'est un cours d'introduction à l'optimisation convexe avec un accent sur les méthodes numériques pratiques.
A. Introduction (convexité, convexité forte, existence et unicité des minimiseurs)
B. Méthodes de descente de gradient dans l'espace entier (convergence, line search)
B' Intermède sur le conditionnement
C. Méthode de gradient stochastique (Explication, un théorème de convergence)
D. Minimisation sous contrainte, Multiplicateurs de Lagrange, conditions KKT
E. Méthodes pour les problèmes de minimisation sous contraintes (Méthode des points intérieurs, algorithme d'Uzawa)
- Enseignant: Benoît Merlet