Optimisation
Optimisation
Optimisation
L’optimisation est une branche mathématique qui a une grande importance dans la
modélisation et la résolution des problèmes rencontrés essentiellement dans le domaine de
l’ingénierie industrielle et qui consistent à minimiser ou maximiser une fonction sur un
ensemble.
Pour atteindre des solutions optimales à ces problèmes, on recourt à différentes méthodes
tout en identifiant d’abord si l’optimisation est sous ou sans contrainte.
1- Méthodes de descente :
Elles sont itératives. Pour passer de uk à uk+1, on se donne une direction de descente dk et on
minimise f le long de cette direction, c’est-à -dire que l’on cherche ρk tel que f(uk + ρkdk) =
inf f(uk + ρdk) ρ∈R . A défaut d’un tel ρk on peut se contenter d’avoir f(uk + ρkdk) < f(uk).
Le principe de cette méthode est de descendre de façon cyclique le long de chacun des axes
de coordonnées. La convergence est assurée si f est elliptique.
Elle consiste à faire partir de u0 quelconque. Connaissant uk, on calcule ∇fuk et uk+1 = uk −
ρk∇fuk avec ρk solution de f(uk − ρk∇fuk ) = inf ρ (uk − ρ∇fuk ). En principe on trouve ρk > 0.
2 -Méthode de Newton :
Dans cette méthode si on a une fonction f régulière dont on sait calculer le gradient et la
matrice hessienne, on peut tirer parti du fait qu’en un point uk, f est localement voisine de son
développement de Taylor quadratique, c’est-`a-dire que
1 t 2
f(uk + d) ≈ f(uk) + dt .∇fuk + d .∇ fuk .d
2
Ainsi, si ∇2fuk est définie positive, l’approximation quadratique va voir un minimum qui
vérifie
∇2 fuk dk = −∇fuk
Si ∇2f n’est pas d´définie positive, cette méthode supporte certains aménagements (méthode
de Newton modifiée).
Quand le calcul de ∇2f ne peut être fait, on peut aussi remplacer ∇2fuk dans l’approximation de
Taylor par une matrice Hk qui se calcule itérativement (méthode de quasi Newton)
1
- De la même façon , si f est la fonctionnelle quadratique f(x) = (Ax, x)− (b, x) ; à la
2
condition de remplacer la métrique ||x||2par |||x||∨¿2= ((x, x)) = (Ax, x).