OPTIMISATION - Rachid Ababou

Transcription

OPTIMISATION - Rachid Ababou
COURS D’OPTIMISATION / R. ABABOU 2004-05
OPTIMISATION
INTRODUCTION À L'OPTIMISATION
ET APPLICATIONS EN SCIENCES POUR L'INGÉNIEUR
________________________________________________________________________________________
R. ABABOU
[email protected]
http://rachid.ababou.free.fr
Éléments de polycopié (format « diapos »)
Version initiale : année 2002-03
Version actuelle : année 2004-05 version 3+
0
COURS D’OPTIMISATION / R. ABABOU 2004-05
OPTIMISATION
SOMMAIRE
0) INTRODUCTION GÉNÉRALE : THÉORIES, MÉTHODES, APPLICATIONS
1ère PARTIE : OPTIMISATION NON-FONCTIONNELLE (SYSTEMES DISCRETS)
1)OPTIMISATION LIBRE (NON CONTRAINTE) : THÉORIE & APPLICATIONS
2)OPTIMISATION LIÉE (CONTRAINTE) : THÉORIE & APPLICATIONS
3)PROBLÈMES DE MOINDRES CARRÉS : MIN ««AX-B««2 & PSEUDO-INVERSES
4)PROBLÈMES LINÉAIRES : PROGRAMMATION LINÉAIRE & SIMPLEXE
2ème PARTIE : OPTIMISATION FONCTIONNELLE (CALCUL VARIATIONNEL)
1)INTÉGRALES D’ENERGIE & CALCUL VARIATIONNEL (EULER-LAGRANGE)
2)APPLICATIONS : GÉODÉSIQUES, CHEMINS & SURFACES MINIMALES…
‰
BIBLIOGRAPHIE & LISTE DE RÉFÉRENCES
3ème PARTIE : ANNEXES & ETUDES
‰
‰
A1 : CALCUL VARIATIONNEL : DÉRIVATION DES FORMULES D’EULER-LAGRANGE…
B1 : LISTE DE PROJETS D’OPTIMISATION (BUREAUX D’ÉTUDES)…
1
(ETC.)
(ETC.)
COURS D’OPTIMISATION / R. ABABOU 2004-05
OPTIMISATION
TABLE DES MATIÈRES DÉTAILLÉE
(en préparation)
2
COURS D’OPTIMISATION / R. ABABOU 2004-05
RÉSUMÉ
DE
SÉANCE 1/10
INTRODUCTION GÉNÉRALE :
THÉORIES, MÉTHODES & APPLICATIONS DE L'OPTIMISATION
‰
LISTE DES TYPES D'APPLICATIONS
(FORMULATIONS DE PROBLEMES)
LISTE DES MÉTHODES
("OUTILS" DE L'OPTIMISATION)
‰
‰
EXERCICES D’INITIATION
(« MISE EN BOUCHE »)
3
COURS D’OPTIMISATION / R. ABABOU 2004-05
ÉLÉMENTS DE POLYCOPIÉ "OPTIMISATION"
0) INTRODUCTION GÉNÉRALE : THÉORIES, MÉTHODES, APPLICATIONS
Î TYPES DE PROBLÈMES D'OPTIMISATION (FORMULATIONS, APPLICATIONS)
Î TYPES DE MÉTHODES (OUTILS DE L’OPTIMISATION)
Î 1ERS EXERCICES SIMPLES D’INITIATION (« MISE EN BOUCHE »)
1. L'optimisation sous toutes ses formes (plus ou moins déguisées):
‰ Optimisation libre (sans contraintes)
‰ Optimisation liée (sous contraintes)
‰
‰
‰
‰
‰
‰
‰
‰
Programmation mathématique
Programmation dynamique
Recherche opérationnelle
Régression linéaire simple ou multiple
Estimation optimale d'un vecteur d'état (théorie de Bayes : prédiction temporelle, géostatistique, etc).
Régression non linéaire (identification de paramètres, calage de modèles).
Résoudre système matriciel Í Minimiser forme quadratique Í Least Squares Í Système surdéterminé
Calcul variationnel pour optimiser une fonctionnelle (intégrale de chemin, énergie, résidus pondérés…)
4
COURS D’OPTIMISATION / R. ABABOU 2004-05
2. Les méthodes et outils théoriques de l'optimisation
‰
‰
‰
‰
‰
Algèbre linéaire et systèmes matriciels A x = b (y compris solveurs numériques)
Analyse différentielle de fonctions de plusieurs variables f(x1,…,xN)
Méthode du simplexe graphique, ou algébrique (algorithme du simplexe)
Concepts mathématiques étroitement liés à la physique, mécanique, économétrie
(contraintes, degrés de libertés, convexité, pénalisation, variables d’ajustement, shadow prices, etc…)
Analyse fonctionnelle et calcul variationnel
3. Les applications de l'optimisation (voir exemples plus bas)
‰
‰
‰
‰
‰
‰
‰
‰
‰
‰
‰
Aires et longueurs optimales, géodésiques, etc
Caractérisation des points critiques des surfaces (relief, hydrographie)
Hydrostatique des films, gouttes et bulles : surfaces minimales en espace 3D.
Mécanique "rationnelle" Lagrange-Hamilton : formulations variationnelles…
Gestion optimale….(exemple des 3 stations de traitement au fil de l'eau)
Gestion dynamique de stocks et flux :…
Calcul numérique : méthodes variationnelles; méthodes des résidus pondérés (FEM, etc)
Calcul numérique : résolution des systèmes discrets par gradients conjugués…
Optimisation fonctionnelle linéaire: déconvolution optimale d'un système in/out linéaire.
Calage d'un modèle nonlinéaire analytique ou numérique : exemple modèle réservoir.
Problèmes de contrôle en boucle ouverte (sans rétro-action) ou fermée (avec rétro-action) :
opérations d'ouverture-fermeture de vannes de canaux et barrages; servo-mécanismes; etc.
5
COURS D’OPTIMISATION / R. ABABOU 2004-05
4. Premiers exemples d'optimisation classés par type d'application
0) Introduction
On se contente de formuler, dans cette section, différents types de problèmes d'optimisation. Certains
de ces exemples seront repris dans la suite du texte, mais dans un ordre différent. Voir les problèmes
résolus dans la suite du texte et les annexes.
Dans la suite, on classera les problèmes par type d'application et non par type de méthode
mathématique. Il convient cependant de distinguer d’abord certaines différences mathématiques
marquantes à travers quelques exemples "académiques" (pour illustration) :
Optimisation Libre :
Min J(x) = (x+1)2 sans contraintes Î xOPT = -1
Optimisation Contrainte :
Min J(x) = (x+1)2 sous contrainte xt0 Î xOPT = 0.
Optimisation Linéaire :
Min J(x) = ax+b sous contrainte x[x1,x2]
Optimisation Nonlinéaire :
Min J(x) = ax2+bx+c sous contrainte x[x1,x2]
Dans le 1er cas, l'optimum ne peut être que l'une des deux bornes x1 ou x2.
Dans le 2nd cas, l'optimum peut être une des deux bornes, ou bien, un point intérieur.
Optimisation Classique:
Minimiser une fonction J(x) Î Etat optimal xOPTIR ou IRN
Optimisation Fonctionnelle : Minimiser une fonctionnelle J(y(x)) Î Fonction y(x)OPT
Dans les deux cas, la quantité à minimiser est scalaire : fonction(nelle) objectif JIR.
6
COURS D’OPTIMISATION / R. ABABOU 2004-05
1) Problèmes de géométrie et de chemin (optique géométrique, etc)
Géométrie plane:
Problème isopérimétrique de la reine Didon ("Dido") de Carthage…
Optique géométrique: Principe de FERMAT.
Dans un milieu continu isotrope mais inhomogène, le chemin optique (rayon de lumière) ne suit pas
une droite mais une courbe C qui minimise le temps de traversée du milieu (problème du plus "court"
chemin optique…). Ce principe revient alors à minimiser l'intégrale de chemin (fonctionnelle) :
J
³ n x, y, z ds x, y, z C
où n(x,y,z) est l'indice de réfraction du milieu (connu), et ds(x,y,z) est l'élément d'abscisse curviligne le
long du chemin C à optimiser. On peut considérer que J est une fonctionnelle de s(x,y,z). Il s'agit d'un
problème d'optimisation fonctionnelle à résoudre par calcul variationnel.
Exemple :
Traversée d'un milieu continûment stratifié dans le plan (x,z), d'indice
n(z)=n0.exp(z/O), connaissant l'angle du rayon incident en x=z=0.
7
COURS D’OPTIMISATION / R. ABABOU 2004-05
2) Problèmes de mécanique du point, structures, milieux déformables
Principe : Si les forces proviennent de potentiels, le théorème des travaux virtuels équivaut à
minimiser l'énergie potentielle.
1er exemple. Problème d'élasticité statique 1D : flexion d'une poutre élastique inhomogène.
Le potentiel total à minimiser comprend l'énergie stockée par les contraintes élastiques et
l'énergie gravitationnelle, d'où l'intégrale (fonctionnelle) :
L
J
³
0
§ k x d 2 y
·
¨¨
¸¸ dx
U
x
y
2
© 2 dx
¹
J y" x , y x , x où y(x) est le déplacement transverse de la barre, U(x) la masse volumique de la barre, k(x) son
coefficient de raideur. Résoudre les équations de l'élasticité revient à minimiser la fonctionnelle
J(y",y,x). La fonction optimale y(x)OPT, solution du problème d'optimisation, est solution
d'équilibre du problème d'élasticité.
2nd exemple: Problème de la brachistochrone en balistique (ou en mécanique du point).
Il s'agit d'obtenir la forme de la courbe le long de laquelle une masse soumise à l'accélération de
la gravité se déplacera en un temps minimum d'un point A (xA,zA) en un point B (xB,zB) situé plus
bas. La solution n'est pas une droite : c'est la brachistochrone, courbe de plus rapide descente,
obtenue par J.BERNOULLI en 1696.
8
COURS D’OPTIMISATION / R. ABABOU 2004-05
3ème exemple: Problème d'équilibre statique d'une chaîne articulée discrète(*).
Par exemple on prend N=3 barraux rigides, librement articulés entre eux et en leur point
d'ancrage. On doit minimiser l'énergie potentielle (gravitationnelle) de l'assemblage :
V
Ug
k N 1
¦
k 0
§ y k y k 1 ·
¨
¸ Lk 1 / 2
2
©
¹
en tenant compte des "contraintes" reliant les positions aux longueurs des barraux :
L2k 1 / 2
xk 1 xk 2 yk 1 yk 2
L'équilibre d'une chaine discrète se présente ainsi comme un problème d'optimisation sous
contraintes de type ordinaire (non variationnel).
(*) Note : Le problème continu correspondant est le problème du catenaire (câble suspendu), qui
requiert l’optimisation d’une fonctionnelle par calcul variationnel (voir ci-dessous)…
9
COURS D’OPTIMISATION / R. ABABOU 2004-05
4ème exemple: Equilibre statique d'un câble suspendu continu (problème du catenaire).
Au lieu d’une chaîne discrète, il s’agit cette fois d’un câble continu.
Le câble est ancré aux deux bouts (qui ne sont pas nécessairement sur une même horizontale).
Ce problème est le passage à la limite Nof & Lo0 du problème de la chaîne discrète (plus haut).
On peut cependant le traiter directement sans passage à la limite, grâce au calcul variationnel.
Approche variationnelle :
On représente la courbe recherchée y(x) sous forme paramétrique :
x W y W ­x
®
¯y
On cherche à minimiser l'intégrale d'énergie potentielle (gravitationnelle) :
W2
V
³y
x c2 y c2 dW
où
x cW dx dW ; y cW dy dW
W1
sous "contrainte" que la longueur du câble soit respectée.
10
COURS D’OPTIMISATION / R. ABABOU 2004-05
SUITE du 4
ème
exemple: Equilibre statique d'un câble suspendu continu (problème du catenaire).
…On doit maintenant formuler la contrainte « longueur de câble fixée » :
2
‰
soit en imposant une contrainte locale sur les longueurs élémentaires: x c y c
W2
‰
soit en imposant une contrainte globale sur la longueur totale:
³
2
x c2 y c2 dW
1 W ,
L.
W1
ère
La 1 méthode revient à imposer que "W" représente l’abscisse curviligne "s" :
dW = ds (élément de longueur).
La 2nde méthode revient à imposer globalement la longueur totale du câble.
Les deux méthodes donnent le même résultat.
Finalement, en minimisant la fonctionnelle V(x',y',y) sous l'une des contraintes ci-dessus, on
obtient après calculs (...) la forme y(x) d'un câble suspendu aux 2 bouts :
yx § x ·
y0 cosh¨¨ ¸¸
© y0 ¹
, où y0 est l'ordonnée du point bas de la catenaire.
C’est la célèbre catenaire en cosinus hyperbolique : voir figure ci-jointe.
11
COURS D’OPTIMISATION / R. ABABOU 2004-05
COURBE CATENAIRE :
LE CALCUL VARIATIONNEL DE MINIMISATION DE L'ENERGIE POTENTIELLE GRAVITATIONNELLE
DONNE LA FORME D'EQUILIBRE D'UN CABLE SUSPENDU PAR SES DEUX EXTREMITES
12
COURS D’OPTIMISATION / R. ABABOU 2004-05
3) Problèmes de mécanique des fluides
Interfaces diphasiques (hydrostatique de films, bulles, gouttes) :
Partant du principe de minimisation de l'énergie de l'interface, et considérant le cas d'un film liquide
limité par une courbe de Jordan (courbe fermée C de IR3), on en déduit le principe de minimisation de
l'aire (énergie interfaciale). On montre que la solution est une surface de courbure totale constante
(surface qui reste ensuite à déterminer pour une courbe C donnée!).
Contrôle optimal d’un corps en milieu fluide (machines, propulseurs) :
Contrôle optimal d'un corps en déplacement dans un fluide visqueux. Ce problème de calcul
variationnel consiste à optimiser une force de contrôle (bornée) de façon à ramener le corps en
mouvement à l'origine en minimisant le temps total, ou le coût total de l'opération [d'après Isaacs 1965,
et Hale & Lasalle 1963].
13
COURS D’OPTIMISATION / R. ABABOU 2004-05
4) Problèmes de gestion industrielle (min coûts, max profits, allocation ressources)
Planification optimale d'un système de production ou d'un chantier (cas typique) :
Une usine fabrique 3 « produits » à l'aide de 3 « machines ». Chaque produit requiert un certain temps
de passage (qui peut être nul) à travers chacune des machines (en minutes/jours). Chaque "machine" a
une capacité de travail limitée (en minutes/jour). Les profits (c1,c2,c3) par unités produites sont connus
(en Euros/Unité). Les quantités à produire x1, x2, x3 (Unités/jours) doivent être déterminées de façon à
maximiser le profit total J = c1.x1+c2.x2+c3.x3 (Euros).
Avec les données du tableau ci-dessous, ce problème d'optimisation s'écrit :
Maximiser
J
MACHINES
2 x2
x3 d 430
­ x1
° 3x
2 x3 d 460
°
1
®
3x1 2 x2 5 x3 sous contraintes : ° x1
4 x2
d 420
°¯ x1 t 0 x2 t 0 x3 t 0
TEMPS DE PRODUCTION PAR PRODUIT CAPACITÉ MAX DES MACHINES
(minutes/jour)
(minutes/jours)
P1
P2
P3
M1
1
2
1
430
M2
3
0
2
460
M3
1
4
0
420
PROFIT (€/Unité)
3
2
5
14
COURS D’OPTIMISATION / R. ABABOU 2004-05
5) Problèmes de gestion et d’exploitation de l'environnement (ressources en eau, pétrole,…)
Gestion optimale d'un système de trois stations de traitement d'eau.
Prenons le cas de 3 villes situées au bord d'un fleuve, dans lequel elles rejettent leurs effluents après
traitement. Les effluents traités sont donc rejetés en rivière par 3 stations de traitement S1, S2, S3 (de
l'amont vers l'aval). Les coût de traitements sont proportionnels à l'efficacité du traitement
(techniquement limitée à 95%). La réglementation fixe le niveau de pollution maximum admissible en
tout point de la rivière en termes de Demande Biologique en Oxygène ("DBO").
On souhaite minimiser le coût total de traitement des 3 stations sous contrainte de la limitation
technique et de la réglementation sur le niveau maximum admissible de pollution, en tenant compte
aussi du fait que la station N°i déverse vers les stations avales j > i .
La solution optimale donnera le coût et l’« efficacité » du traitement à mettre en œuvre pour chacune
des 3 stations. Pour la formulation mathématique du problème, voir exercices annexes…
6) Problèmes de modélisation et de calculs numériques
Méthodes de Résidus Pondérés (Weighted Residual Methods):
Très large classe de méthodes de résolution numérique d'EDP basées sur la minimisation d'une
fonctionnelle (discrétisée) de l’erreur : Méthode d'Eléments Finis, Méthodes de Collocation, Méthodes
Least Squares (Moindres Carrés), Méthodes Spectrales…
Régressions nonlinéaires et calages de modèles (Nonlinear Regression and/or Model Calibration):
Modèles numériques spatio-temporels (grand nombre de paramètres à caler).
Modèles analytiques non linéaires.
15
COURS D’OPTIMISATION / R. ABABOU 2004-05
1ère PARTIE :
OPTIMISATION NON FONCTIONNELLE
(SYSTEMES DISCRETS, CALCUL DIFFÉRENTIEL)
16
COURS D’OPTIMISATION / R. ABABOU 2004-05
I.
OPTIMISATION LIBRE (NON CONTRAINTE) :
THEORIE & APPLICATIONS
1.
2.
Introduction à l'optimisation libre (applications, méthodes)
Remarque préalable sur le cas linéaire sans contrainte (trivial)
FONCTION OBJECTIF LINÉAIRE SANS CONTRAINTES (PROBLEME TRIVIAL, SOLUTION NON BORNÉE)
3.
Problèmes a variable d'état scalaire ("1D")
FONCTION OBJECTIF QUADRATIQUE (OPTIMISATION QUADRATIQUE ET REGRESSION SIMPLE)
FONCTION OBJECTIF NONLINÉAIRE QUELCONQUE (OPTIMISATION NONLINÉAIRE)
4.
Problèmes d'optimisation 2-D et points critiques d'une surface z=F(x,y)
OPTIMISATION 2-D : POINTS CRITIQUES ET EXTREMA D'UNE SURFACE Z=F(X,Y)
APPROFONDISSEMENT : GÉOMÉTRIE DIFFÉRENTIELLE ET PROPRIÉTÉS DES SURFACES Z=F(X,Y)
APPLICATIONS
5.
: ANALYSE MORPHOLOGIQUE DU RELIEF Z=F(X,Y); POTENTIEL HARMONIQUE I=F(X,Y);…
Problèmes a variable d'état vectorielle (généralisation "multi-D")
MINIMISATION D'UNE FORME QUADRATIQUE Î RÉSOLUTION D'UN SYSTÈME LINÉAIRE SYMÉTRIQUE > 0
MINIMISATION D'UNE FORME QUADRATIQUE Í RÉGRESSION LINÉAIRE, ESTIMATION BAYES
OPTIMISATIUON NONLINÉAIRE GÉNÉRALE (REGRESSIONS NONLINÉAIRES ET CALAGES DE MODÈLES)
6.
ANNEXE : Récapitulation des conditions générales d'optimalité libre.
17
COURS D’OPTIMISATION / R. ABABOU 2004-05
OPTIMISATION LIBRE – APERÇU GÉNÉRAL
REMARQUE PRÉALABLE SUR LE CAS LINÉAIRE:
FONCTION OBJECTIF « J » LINÉAIRE, SANS CONTRAINTES Î PROBLEME TRIVIAL !
PROBLÈMES NONLINÉAIRES A VARIABLE D'ETAT SCALAIRE
FONCTION OBJECTIF QUADRATIQUE Î ÉQUATION LINÉAIRE : PROBLÈME ULTRA-SIMPLE
FONCTION OBJECTIF QUELCONQUE Î OPTIMISATION NONLINÉAIRE : wJ/wX = 0 (ETC…)
PROBLÈMES A VARIABLE D'ETAT VECTORIELLE (GÉNÉRALISATION)
RÉGRESSION MULTIPLE Î MINIMISATION QUADRATIQUE Î SYSTÈME LINEAIRE SYM>0
MINIMISER OBJECTIF NONLINÉAIRE (CALAGE, RÉGRESSION NONLIN) Î wJ/wXI = 0 (ETC!…)
18
COURS D’OPTIMISATION / R. ABABOU 2004-05
1.
Introduction à l'optimisation libre (applications, méthodes)
Bien qu'une grande partie des problèmes d'optimisation se présentent comme des problèmes d'optimisation
"liée" (sous contrainte), ces derniers peuvent se ramener à des problèmes "libres" (sans contraintes) par
augmentation de variables (les multiplicateurs de Lagrange pour les contraintes égalités, et des variables
d'ajustement ou variables d'écart, pour les contraintes inégalités, comme on verra dans les autres chapitres).
Dans certains cas tels que l'analyse du relief z = F(x,y), l'optimisation libre a un intérêt direct et évident :
elle permet d'identifier les pics (maxima) et les creux (minima), ainsi que les cols (points selles), avant de
passer à une analyse plus approfondie (lignes de creux et de crêtes; rugosité; courbures; géodésiques…).
Un autre type de problème très familier est le modèle de régression linéaire y* = ax+b en statistique. Les
paramètres (a,b) du modèle sont obtenus en appliquant deux critères : (1) le critère de non-biais qui donne
b = mY-a.mX , et (2) le critère de minimisation de la variance des écarts entre observations (y) et modèle
(y*). Cette 2ème étape est un problème d’optimisation, d'où l'on tire la valeur optimale de a = U.VY/VX .
Dans de nombreuses autres applications, seule une résolution numérique de l'optimum est envisageable. Le
tableau suivant liste quelques applications et méthodes numériques d’optimisation envisageables ici.
MÉTHODES D’OPTIMISATION ENVISAGEABLES :
Application directe des conditions d'optimalité
(sans approximation numérique);
‰ Steepest descent; Gradients conjugués;
‰ Gauss-Newton; Newton;
‰ Fletcher-Reeves; Levenberg-Marquardt;
‰ Autres méthodes numériques
‰
‰
‰
‰
‰
PROBLÈMES D’OPTIMISATION ENVISAGÉS :
Régression linéaire simple (min.variance);
Régression linéaire multiple et estimation
bayesienne optimale d'un vecteur d'état;
Régression nonlinéaire et/ou calage d'un
modèle nonlinéaire (numériques ou non)
Analyse du relief : surface z=f(x,y).
NB: Voir plus loin, le résumé des conditions générales d'optimalité en l’absence de contraintes.
19
COURS D’OPTIMISATION / R. ABABOU 2004-05
2.
Remarque préalable sur le cas linéaire sans contrainte (solution triviale, non bornée !)
FONCTION OBJECTIF LINÉAIRE SANS CONTRAINTES :
LE PROBLEME EST TRIVIAL, LA SOLUTION EST NON BORNÉE (INFINIE).
Problème d’optimisation :
Min F(x) = ax+b
xIR (pas de contraintes)
Solution optimale non bornée :
‰
si a < 0 : xOPT o +f (cas de la figure ci-contre)
‰
si a > 0 : xOPT o -f
Remarque : la solution optimale est non
bornée.
Min F(x1,…,xN) = aT x + b (forme linéaire)
x = (x1,…,xN)  IRN (sans contraintes)
La solution optimale est non bornée…
Idem dans le cas N-dimensionnel :
20
COURS D’OPTIMISATION / R. ABABOU 2004-05
3.
Problèmes a variable d'état scalaire ("1D")
FONCTION OBJECTIF QUADRATIQUE, SANS CONTRAINTES :
L’OPTIMUM EST SOLUTION D’UNE ÉQUATION LINÉAIRE SIMPLE…
OU BIEN L’OPTIMUM EST NON BORNÉ.
FONCTION OBJECTIF NONLINÉAIRE QUELCONQUE, SANS CONTRAINTES :
APPLIQUER TOUTES LES CONDITIONS D’OPTIMALITÉ…
ER
CONDITIONS D’OPTIMALITÉ DU 1 ORDRE
ND
CONDITIONS D’OPTIMALITÉ DU 2 ORDRE
21
COURS D’OPTIMISATION / R. ABABOU 2004-05
ANNEXE : Notion de fonction convexe (cf. conditions d’optimalité du 2nd ordre)
ENSEMBLE CONVEXE E
x ' , x"  E : Ox ' 1 O x"  E
Si F(x) différentiable 2 fois j
FONCTION CONVEXE F(X)
OF x ' 1 O F x" t F Ox ' 1 O x"
w2F/wx2 t 0 m j
FONCTION CONCAVE F(X)
OF x ' 1 O F x" d F Ox ' 1 O x" w2F/wx2 d 0 m j
FONCTION CONVEXE F(X)
ENSEMBLE CONVEXE E
22
COURS D’OPTIMISATION / R. ABABOU 2004-05
ANNEXE : Conditions de convexité (cf. conditions d’optimalité du 2nd ordre)
FONCTION CONVEXE IRNoIR :
F(x1,…,xN) strictement convexe si la matrice Hessienne H > 0.
‰
Définition de la matrice Hessienne H :
H = [Hij ] = [w 2F/wxiwxj ]
‰
Positivité stricte de H :
H>0
œ H définie positive
œ x'T H x" > 0 , x'z0, x"z0
‰
Propriété utile à faible dimension N :
H > 0 si les N inégalités suivantes sont satisfaites :
(1) :
w2F
! 0;
wx12
ª w 2 F / wx12
(2) : Det « 2
¬w F / wx1 wx 2
i : ..... ;
( N ) : Det >H @ ! 0
23
w 2 F / wx1 wx 2 º
» ! 0;
w 2 F / wx 22 ¼
COURS D’OPTIMISATION / R. ABABOU 2004-05
CONDITIONS LOCALES D'OPTIMALITÉ
CAS DE LA MINIMISATION SANS CONTRAINTES D'UNE FONCTION F(x1,…,xN)
1) Conditions nécessaires =
Les conditions du 1er ordre wF/wxi = 0 (i=1,…,N) sont nécessaires;
er
cond. du 1 ordre (grad F = 0)
elles déterminent les points critiques x* parmi lesquels peuvent se
trouver le ou les minima locaux (s'ils existent).
2) Conditions suffisantes =
La condition du 2nd ordre pour un minimum local est H > 0
nd
cond. du 2 ordre (H > 0)
(Hessienne définie positive). C'est une condition d'optimalité
suffisante en x*, les conditions du 1er ordre y étant déjà vérifiées.
3) Cas de dégénérescence (H = 0)
Cependant, si H = 0 en x*, les conditions suffisantes d'optimalité
sont à rechercher à des ordres de différentiation plus élevés. Cas
d'une fonction univariée F(x) : si H = wF2/wx2 = 0 en x*, on doit
vérifier successivement les dérivées d'ordre k=3, k=4, etc. On a un
optimum local si la 1ère dérivée non nulle est d'ordre pair (si la 1ère
dérivée non nulle est d'ordre impair, il s'agit d'un point d'inflexion).
4) Cas des points selles (H indéfinie) Si H est une matrice indéfinie en x*, alors x* n'est pas un extremum
local (c'est un « col », ou « point selle »).
CONDITIONS GLOBALES D'OPTIMALITÉ
CAS DE LA MINIMISATION SANS CONTRAINTES D'UNE FONCTION F(x1,…,xN)
Condition de convexité
ƒ Si F(x) est partout convexe, alors si x* est minimum local il est
nécessairement aussi minimum global, solution du problème.
ƒ Par contre, si F(x) non convexe, il peut y avoir plusieurs minima
locaux, parmi lesquels se trouve le minimum global recherché.
24
COURS D’OPTIMISATION / R. ABABOU 2004-05
ILLUSTRATIONS # 0.0.0 (DIVERS)
QUADRIQUE
CUBIQUE
25
COURS D’OPTIMISATION / R. ABABOU 2004-05
EXERCICE # 0.0
MINIMISATION LIBRE D'UNE FONCTION OBJECTIF QUADRATIQUE UNIVARIÉE
F(X) = A.X2 + B.X + C
Minimiser :
1ÈR
CAS
F x ax 2 bx c
: A > 0 (FONCTION CONVEXE)
2ND CAS : A < 0 (FONCTION CONCAVE)
Optimisation libre: Min F(x) = ax2+bx+c
Condition nécessaire du 1er ordre wF/wx=0 :
wF/wx=0 Î 2ax + b = 0 Î x* = - b/2a
Condition du 2nd ordre (convexité): w2F/wx2 > 0 ?
2
…Sans aucune contrainte ( x  IR )
2
w F/wx = 2 a > 0 Î F(x) convexe Î x* min.
Conclusion :
x* = - b/(2a) minimise l’objectif F(x),
""""""""""""
""""""""""""
""""""""""""
Condition du 2nd ordre (convexité): w2F/wx2 > 0 ?
w2F/wx2 = 2 a < 0 Î F(x) concave Î x* max.
Conclusion :
Le point critique x = -b/2a maximise F(x)…
ce n'est donc pas un minimum de F(x)
(le minimum est obtenu en x* o rf).
et la valeur optimale de l'objectif est :
F*=ax*2+bx*+c Î F* = - b2/(4a) + c
26
COURS D’OPTIMISATION / R. ABABOU 2004-05
SUITE EXERCICE # 0.0
MINIMISATION LIBRE D'UNE FONCTION OBJECTIF QUADRATIQUE UNIVARIÉE
F(X) = A.X2 + B.X + C
27
COURS D’OPTIMISATION / R. ABABOU 2004-05
LOCAL PIT
28
COURS D’OPTIMISATION / R. ABABOU 2004-05
LOCAL PIT
29
COURS D’OPTIMISATION / R. ABABOU 2004-05
THE BANANA FUNCTION : MINIMUM AT POINT (1,1)
30
COURS D’OPTIMISATION / R. ABABOU 2004-05
The Banana function : minimum at point (1,1)
31
COURS D’OPTIMISATION / R. ABABOU 2004-05
The Banana function : minimum at point (1,1)
32
COURS D’OPTIMISATION / R. ABABOU 2004-05
4.
Problèmes d'optimisation 2D et points critiques d'une « surface » z = F(x,y)
OPTIMISATION 2D : POINTS CRITIQUES ET EXTREMA D'UNE SURFACE Z = F(X,Y)
ANNEXE : ÉLÉMENTS DE GÉOMÉTRIE DIFFÉRENTIELLE ; PROPRIÉTÉS DES SURFACES Z=F(X,Y)
QUELQUES APPLICATIONS :
ƒ ANALYSE TOPO-MORPHOLOGIQUE DU RELIEF Z = F(X,Y);
ƒ POTENTIELS HARMONIQUES I = F(X,Y);
ƒ …
33
COURS D’OPTIMISATION / R. ABABOU 2004-05
5.
Problèmes à variable d'état vectorielle (généralisation "multi-dimensionnelle")
OBJET DE CETTE SECTION :
Illustrer les problèmes d’optimisation libre dans le cas d’un « grand » nombre de variables de décisions
(N>>1, ou au moins N>2).
NOTA BENE :
DE NOMBREUSES APPLICATIONS FONT INTERVENIR UN NOMBRE N >>1 DE VARIABLES.
VOIR PLUS LOIN, LA SECTION CONSACREE AUX « PROBLEMES DE MOINDRES CARRES ».
ON SE CONTENTE ICI D’EN DONNER QUELQUES EXEMPLES D’APPLICATIONS :
x Régression linéaire, estimation Bayes o Minimisation d'une forme quadratique
x Minimisation d'une forme quadratique > 0 l Résolution d'un système linéaire
x Optimisation non linéaire (générale) o Régression non linéaire (calage de modèles, etc.)…
……..
……
…
34
COURS D’OPTIMISATION / R. ABABOU 2004-05
II.
OPTIMISATION LIÉE (SOUS CONTRAINTES) :
THEORIE & APPLICATIONS
OBJECTIFS DE CE CHAPITRE :
Théorie générale et exercices portant sur l’optimisation d’une fonction objectif J(x1,…,xN), généralement
non linéaire, sous contraintes égalités et/ou inégalités sur les (x1,…,xN), ces contraintes étant généralement
non linéaires. (Le cas spécial de fonctions objectifs linéaires et contraintes linéaires est traité séparément
dans le chapitre sur la « programmation linéaire ».)
RAPPELS PRÉALABLES :
Concernant la minimisation d’une fonction objectif F(x) en l’absence de contraintes, revoir les conditions
d’optimalité classiques du 1er ordre (grad F = 0) et du 2nd ordre (Hessienne H > 0)…
CAS DE CONTRAINTES ÉGALITÉS
Minimiser :
Sous contrainte :
F x, y f x, y 0
Méthode directe : substitution de y(x)…[parfois possible]
Méthode générale : multiplicateurs de Lagrange O…
CAS DE CONTRAINTES INÉGALITÉS
Minimiser :
Sous contrainte :
F x, y f x, y t 0
Méthode générale : variable d’ajustement « s » telle que:
f x, y s2
Autres méthodes : méthodes de pénalisation, etc [numérique]
35
COURS D’OPTIMISATION / R. ABABOU 2004-05
ANNEXE :
OPTIMISATION SOUS CONTRAINTES ÉGALITÉS ET
MÉTHODE DES MULTIPLICATEURS DE LAGRANGE
Soit à minimiser la fonction objectif (scalaire) :
sous la contrainte égalité (scalaire) :
F x1 ,..., x N f x1 ,..., x N 0 (supposée de type « holonome »)1.
Les conditions nécessaires du 1er ordre donnent les points critiques de F (en ignorant d’abord la contrainte) :
dF
wF
wF
dx1 dx N
wx1
wx N
0 , d’où :
wF
wx1
wF
wx N
0.
Mais comment tenir compte de la contrainte f(x1,…,xN) = 0 ?
1. Substitution directe (élimination de variable) :
On peut, dans certaines conditions, exprimer directement xN = g(x1,…,xN-1) et substituer xN dans F(…) :
F x1 ,..., x N F x1 ,..., g x1 ,..., x N 1 G x1 ,..., x N 1 Î Minimiser
G x1 ,..., x N 1 .
Cependant, cette méthode n’est pas générale (parfois inapplicable)…
1
Une contrainte « non holonome » serait, par exemple, une contrainte différentielle (le terme « holonome » dépend parfois du contexte et reste à définir plus précisément)…
36
COURS D’OPTIMISATION / R. ABABOU 2004-05
2. Multiplicateurs de Lagrange (augmentation de variables) :
On peut différencier la contrainte holonome2 f(x1,…,xN) = 0 comme suit :
f x1 ,..., x N 0 Î df
wf
wf
dx1 dx N
wx1
wx N
0
L’astuce (géniale) de Lagrange est alors d’ajouter l’équation df = 0 à l’équation dF = 0, en introduisant
un nouvelle variable ou paramètre inconnu (O) appelé le multiplicateur de Lagrange :
dF O df
Î
0
ou
GF O Gf
wF
·
§ wF
Gx1 Gx N ¸ O
¨
wx N
¹
© wx1
0
wf
§ wf
·
Gx1 Gx N ¸ 0 , O
¨
wx N
¹
© wx1
wF
wf
Remarquer que l’équation ci-dessus est vraie O. Imposons que O vérifie : wx O wx
N
N
i N 1
On obtient alors (cette fois-ci, en différentielles exactes) :
¦
i 1
­ wF
wf ·
§ wF
O
¸ dx i
¨
wx i ¹
© wx i
wf
Mais comme les (N-1) « dxi » sont libres et indépendants : ® wx O wx
¯ i
i
2
0.
0.
0 i 1, , N 1 .
Plus généralement encore, on peut d’emblée traiter des contraintes non-holonomes, de la forme Gf = 6 ai Gxi où les (Gf) sont des variations et non des différentielles exactes.
37
COURS D’OPTIMISATION / R. ABABOU 2004-05
De plus, tenant compte de l’équation vérifiée par O, on a :
·¸ §¨ wf
·
§¨ wF
x
w
wx N ¸¹ .
©
N ¹ ©
O
Il est donc clair que le système précédent peut être étendu au cas i = N sans modification, soit :
wf
­ wF
O
®
wx i
¯ wx i
0 i
­ w F Of 1, , N ou : ®
¯ wx i
0 i 1, , N Eq.(*)
On voit que cela revient à une minimiser libre (sans contraintes) de la fonction (F+Of).
Mais ce système est à N équations et N+1 inconnues (x1,…,xN, O) : il parait donc sous-déterminé.
Où est passé la (N+1)ème équation ? C’est tout simplement la contrainte originelle :
f x1 ,..., x N 0.
Eq.(**)
Le système d’équations (*)+(**) est maintenant exactement déterminé : sa résolution donne les valeurs
de (x1,…,xN) et (O) satisfaisant les conditions d’optimalité du 1er ordre et la contrainte f = 0. Il reste
ensuite à appliquer les conditions du 2nd ordre au système de (N+1) variables. On obtient alors les
variables de décision optimale (x1,…,xN)OPT ainsi que (O)OPT. NB : On interprétera (O)OPT plus loin…
Généralisation à K contraintes égalité fk = 0 (k=1,…,K) :
& &
& & ­ Min& F ( x) &
&
&
®
Min
F
(
x
)
O
x f x
f o f ; O o O ; F O f o F O x f : s.c. : f x 0 œ
¯
38
COURS D’OPTIMISATION / R. ABABOU 2004-05
EXERCICE # 0.1
MINIMISATION SOUS CONTRAINTE Y=AX+B
D'UNE FONCTION OBJECTIF PARABOLOIDALE
Minimiser :
F x, y Sous Contrainte : f x, y x2 y2
y x 1 0
1ÈRE MÉTHODE : ELIMINATION DE VARIABLES
2ÈME
Min F(x,y) s.c. y = x-1 Î Min F(x,x-1) { G(x).
Min F(x,y) s.c. f(x,y)=0 Î Min {F(x,y)+Of(x,y)}
2
2
2
MÉTHODE
: MULTIPLICATEUR
DE
LAGRANGE
Min x2+y2 s.c. y-x+1=0 Î Min {x2+y2+O.(y-x+1)}
On a ici : G(x) = x +(x-1) = 2x - 2x + 1.
On a donc une optimisation libre: Min G(x) = 2x2-2x+1 On a donc une optimisation libre / variables (x,y,O).
Condition nécessaire du 1er ordre: wG/wx=0Î x*=1/2 Les conditions du 1er ordre / (x,y) donnent :
Condition du 2nd ordre (convexité): w2G/wx2 > 0? OUI
wf
­ wF
O
°
Conclusion : x* = 1/2 minimise bien G(x).
wx
wx
® wF
wf
Application de la contrainte Î y* = x*-1 Î y*=-1/2 °
O
wy
¯ wy
0
0
Î
­ x* 1 / 2
­2 x O 0
°
®
¯2 y O 0 Î ® y* 1 / 2
et : y x 1 °¯ O * 1
NB: le multiplicateur de Lagrange O*.représente le "coût" de la contrainte
39
COURS D’OPTIMISATION / R. ABABOU 2004-05
SUITE EXERCICE # 0.1
MINIMISATION SOUS CONTRAINTE Y=AX+B
D'UNE FONCTION OBJECTIF PARABOLOIDALE
40
COURS D’OPTIMISATION / R. ABABOU 2004-05
SUITE EXERCICE # 0.1
MINIMISATION SOUS CONTRAINTE Y=AX+B
D'UNE FONCTION OBJECTIF PARABOLOIDALE
41
COURS D’OPTIMISATION / R. ABABOU 2004-05
III.
PROBLEMES DE MOINDRES CARRES :
MINIMISATION DE °°AX-B°°2 & PSEUDO-INVERSES
OBJET :
Cette section traite le cas particulier des problèmes d’optimisation libre de type « moindres carrés », ou
« least squares », qui se présentent comme la minimisation d’une forme quadratique de N variables.
Ce type de problème d’optimisation provient souvent d’un problème de minimisation de la distance
entre deux vecteurs, avec comme norme associée, la norme « quadratique » ou norme euclidienne L2.
On montrera de plus, d’un point de vue algébrique, que ces problèmes reviennent à résoudre un
système linéaire sur-déterminé Ax = b (la matrice A étant rectangulaire « debout ») par minimisation
de la norme °°Ax-b°°2 , d’où une définition de la pseudo-inverse de la matrice rectangulaire A.
EXEMPLES D’APPLICATIONS
x Régression linéaire, estimation Bayes Î Minimisation d'une forme quadratique
x Minimisation d'une forme quadratique Î résolution d'un système linéaire symétrique > 0
x Optimisation non linéaire générale (régression nonlinéaire, calage de modèles, etc…)
42
COURS D’OPTIMISATION / R. ABABOU 2004-05
1. Minimisation d’une forme quadratique à 1 seule variable (exercice préparatoire)
Problème :
Minimiser la fonction objectif f(x) = ½ ax2-bx+c.
Remarques :
La fonction objectif est une forme quadratique, généralement notée Q(x) = ½ ax2-bx+c.
Si a > 0, la fonction f(x) est convexe et la forme quadratique Q(x) est définie positive.
Solution :
Application des conditions du 1er ordre :
wf/wx = 0 Î a.x = b Î x = a-1.b = b/a.
Application des conditions du 2nd ordre (convexité) :
w2f/wx2 = a > 0
Conclusion :
Si a > 0 on trouve bien un minimum en xOPT = a-1.b
Si a d 0 il n’y a pas de minimum fini.
43
COURS D’OPTIMISATION / R. ABABOU 2004-05
2. Minimisation d’une forme quadratique de N variables
Minimiser la fonction objectif f(x) = ½ xT M x - bT x+c
Problème :
x est le vecteur des variables de décision
M est une matrice carrée NxN (sym. ou non, positive ou non,…),
b est un vecteur Nx1, et c une constante scalaire.
Remarques :
La fonction objectif scalaire f(x) est une forme quadratique, que l’on peut noter Q(x).
Si la partie symétrique de la matrice M est > 0, la fonction f est convexe et la forme
quadratique Q est dite définie positive (les calculs ci-dessous démontrent cette assertion).
Solution :
Voir détail des calculs plus loin (conditions du 1er ordre et du 2nd ordre)…
Conclusion :
Soit la matrice A définie par : A SymM 1
M MT .
2
Si A > 0, la forme quadratique Q est > 0, la fonction objectif f est convexe, et on obtient :
x OPT
A 1 b
Sinon, il n’y a pas de minimum.
44
COURS D’OPTIMISATION / R. ABABOU 2004-05
Solution (détail des calculs) :
Conditions du 1er ordre
…
Conditions du 2nd ordre
…
45
COURS D’OPTIMISATION / R. ABABOU 2004-05
3. Moindres carrés : cas d’un modèle linéaire à 1 variable (régression simple)
Problème :
H2 = ««y – (a x+b)««2
Minimiser la fonction objectif (erreur quadratique)
sous contrainte égalité (condition de non biais) :
1
N
¦ axi b i 1... N
1
N
¦ yi i 1... N
x est le vecteur des observations d’une variable « explicative » x
y est le vecteur des observations d’une variable « à expliquer » y
(a,b) sont les 2 variables de décision (nous allons éliminer « b » ci-dessous, il restera « a »)
Remarques :
La fonction objectif scalaire H2 est une forme quadratique, que l’on peut noter Q(a,b).
Attention : ce sont (a,b) - et non pas les (xi,yi) - qui sont les variables de décision !
Conseil : utiliser d’abord la méthode de substitution pour éliminer la contrainte égalité.
Solution :
(0) élimination de la variable b ; (1) conditions du 1er ordre ; (2) conditions du 2nd ordre :
…..
….
Résultats :
On retrouve bien le résultat de la régression linéaire classique : …..
46
COURS D’OPTIMISATION / R. ABABOU 2004-05
4. Moindres carrés : cas d’un modèle linéaire à N variable (régression multiple)
………….
…....
…
5. Moindres carrés : régression non linéaire, polynomiale, etc (exemples ci-dessous)….
….
47
COURS D’OPTIMISATION / R. ABABOU 2004-05
6. Approche algébrique des moindres carrés & notion de pseudo-inverse (exploration Matlab)
………….
…….
48
COURS D’OPTIMISATION / R. ABABOU 2004-05
MOINDRES CARRES ET PSEUDO-INVERSES (II)
Exploration de différents types de pseudo-inverses dans MATLAB ™
>> help mldivide (in MATLAB 6)
Î \ Backslash or left matrix divide.
“\” œ «diviser à gauche» (diviseur à gauche).
A\B is the matrix division of A into B, which is roughly the
A\B
œ
A-1 B
same as INV(A)*B , except it is computed in a different way. A peut être rectangulaire!
In other words, A\B is the solution of A*X = B in a certain sense :
‰ If A is an N-by-N square matrix and B is a column vector with N components, or a
matrix with several such columns, then X = A\B is the solution to the equation A*X = B
computed by Gaussian elimination (a warning message is printed if A is badly scaled or
nearly singular). Note: “A\EYE(SIZE(A))” produces the inverse of A.
‰ If A is an M-by-N rectangular matrix with M<N or M>N and B is a column vector with
M components, or a matrix with several such columns, then X = A\B is the solution in
the least squares sense to the under- or over-determined system of equations A*X = B.
Note: the effective rank, K, of A is determined from the QR decomposition with pivoting. A
solution X is computed which has at most K nonzero components per column; if K < N this will
usually not be the same solution as PINV(A)*B.
‰
Nota Bene: A\EYE(SIZE(A)) œ A-1 I , which yields a generalized inverse of A.
49
COURS D’OPTIMISATION / R. ABABOU 2004-05
Pseudoinverses (MATLAB 6)
Rectangular matrices do not have inverses or determinants.
If A is rectangular (non square) at least one of the equations :
AX = I and XA = I
does not have a solution.
A partial replacement for the inverse is provided by the MOORE-PENROSE pseudo-inverse,
computed by the "pinv" function.
X = pinv(C)
X=
0.1159 -0.0729 0.0171
-0.0534 0.1152 0.0418
The matrix…
Q = X*C
Q=
1.0000 0.0000
0.0000 1.0000
is the 2-by-2 identity, but…
50
COURS D’OPTIMISATION / R. ABABOU 2004-05
…but the matrix…
P = C*X
P=
0.8293 -0.1958 0.3213
-0.1958 0.7754 0.3685
0.3213 0.3685 0.3952
is not the 3-by-3 identity (as can be seen).
However, P acts like an identity on a portion of the space, in the sense that :
x P is symmetric,
x P*C is equal to C, and
x X*P is equal to X.
51
COURS D’OPTIMISATION / R. ABABOU 2004-05
If A is M-by-N with M > N and full rank
then the three following statements are theoretically equivalent :
x = A\b
N
(full
column
rank),
Í Solution d’un système matrice-vecteur rectangulaire « Ax=b »
œ x = pinv(A)*b
Í Pseudo-inverse de Penrose (Matlab)
œ x = inv(A'*A)*A'*b
œ x = (AT A)-1 AT b , i.e. : (A-1)PSEUDO = (AT A)-1 AT
Each statement theoretically computes the same least squares solution vector x,
although the backslash operator does it faster.
However, if A does not have full rank, the solution to the least squares problem is not unique
(there are many vectors x that minimize the norm of (A*x -b) in that case):
1) The solution computed by x = A\b is a basic solution; it has at most "r" nonzero
components, where "r" is the rank of A.
2) The solution computed by x = pinv(A)*b is the minimal norm solution; it also minimizes
norm(x).
3) An attempt to compute a solution with x = inv(A'*A)*A'*b fails… because A'*A is a
singular square matrix !
52
COURS D’OPTIMISATION / R. ABABOU 2004-05
Here is an example to illustrates the various solutions if A is not full rank
(i.e. : when A is not full column rank, and/or; when the over-determined system is degenerate):
A=
[1 2 3
4 5 6
7 8 9
10 11 12 ]
does not have full rank, because its 2nd column is the average of the 1rst and 3rd columns.
If b = A(:,2) is the second column, then an obvious solution to A*x = b is:
x = [0 1 0]'.
However, as we shall see p , none of the above approaches computes that solution (!)…
53
COURS D’OPTIMISATION / R. ABABOU 2004-05
Recall: the obvious solution to the degenerate under-determined system Ax=b is: x = [0 1 0]'.
i)°The backslash operator gives a solution having 2 nonzero components:
x = A\b Í Warning: Rank deficient, rank = 2.
x=
0.5000
0
0.5000
ii) The pseudoinverse approach gives:
y = pinv(A)*b
y=
0.3333
(without any warning about rank deficiency);
0.3333
0.3333
…but note that norm(y) = 0.5774 is less than norm(x) = 0.7071.
iii) Finally, the instruction…
z = inv(A'*A)*A'*b
fails completely (as expected): “Warning: Matrix is singular to working precision”.
z=
Inf
Inf
Inf
(infinite numbers).
54
COURS D’OPTIMISATION / R. ABABOU 2004-05
EXEMPLE DE RÉGRESSION NON LINÉAIRE À L'AIDE DE MATLAB :
LISTING DU PROGRAMME MATLAB
% -----------------------------------------------------------------------------------------------% Regress_P_Landau.M (R.ABABOU + E.DIAZ, 04 Avril 2002)
% Regression nonlineaire pour obtenir empiriquement l'équation de la
% pression dans l'explosion forte de Landau-Lifchitz (cf. mémoire de
% fin d'études de E.Diaz sur la modélisation de l'explosion de l'usine
% AZF à Toulouse le 21 Septembre 2001).
% ----------------------------------------------------------------------------------% Responsable: R.ABABOU (Département Hydraulique, ENSEEIHT).
% -----------------------------------------------------------------------------------------------NONLINEAR LEAST SQUARES / NONLINEAR REGRESSION :
UTILISATION DE "LSQCURVEFIT(...)" DANS MATLAB...
55
COURS D’OPTIMISATION / R. ABABOU 2004-05
xdata1 = [0;0.4;0.62;0.7;0.8;0.88;0.96;0.98;0.99;1];
ydata1 = [0.365;0.365;0.365;0.385;0.425;0.5;0.68;0.775;0.87;1];
%%
x = lsqcurvefit(@myfun, [2 7], xdata, ydata)
% where MYFUN is a MATLAB function such as:
%%
function F = myfun(x,xdata)
%%
F = x(1)*sin(xdata)+x(2);
% FUN can also be an inline object:
% Inutile : acoeff(1)=0;a(2)=0;a(3)=0;a(4)=0;
acoeff0 = [1 1 1 1];
%% fun1=inline('acoeff(1)/((1+acoeff(2).*(xdata1-0.365.*ones(size(xdata1)))).^acoeff(3)).^acoeff(4)','acoeff','xdata1')
%% fun1 = inline('acoeff(1)+acoeff(2).*xdata1+ acoeff(3).*xdata1.^2+acoeff(4).*xdata1.^3','acoeff','xdata1')
%% fun1= inline('0.365+acoeff(1).*(abs(xdata1).^acoeff(2)).*(log(abs(xdata1).*acoeff(3)))','acoeff','xdata1');
xdata1=1-xdata1;
fun1=inline('(acoeff(1)+acoeff(2).*xdata1).*exp(acoeff(3).*xdata1)+acoeff(4)','acoeff','xdata1');
acoeff = lsqcurvefit(fun1,acoeff0, xdata1, ydata1); % Curve fitting (calcul du vecteur des coefficients)
dx=0.01;
xgrid1=[0:dx:1];
xgrid1=1-xgrid1;
ygrid1= (acoeff(1)+acoeff(2).*xgrid1).*exp(acoeff(3).*xgrid1)+acoeff(4);
xgrid1=1-xgrid1;
xdata1=1-xdata1;
plot(xgrid1,ygrid1); hold on, plot(xdata1,ydata1,'o'); hold on, % Plot the fitted curve
display(acoeff); % Display the fitted coefficients
56
COURS D’OPTIMISATION / R. ABABOU 2004-05
EXEMPLE DE RÉGRESSION NON LINÉAIRE À L'AIDE DE MATLAB :
FIGURE OBTENUE EN OUTPUT DU PROGRAMME MATLAB
57
COURS D’OPTIMISATION / R. ABABOU 2004-05
IV.
OPTIMISATION LIÉE (SOUS CONTRAINTES) :
PROBLÈMES LINÉAIRES / PROGRAMMATION LINÉAIRE
INTRODUCTION A LA PROGRAMMATION LINÉAIRE :
FORMULATION DES PROBLÈMES D’OPTIMISATION LINÉAIRE
(A FONCTION OBJECTIF ET CONTRAINTES LINÉAIRES)
LA MÉTHODE DU SIMPLEXE GRAPHIQUE DANS LE CAS BIVARIÉ (N=2) …À TRAVERS UN EXO SIMPLE
ALGORITHME GÉNÉRAL DU SIMPLEXE DANS LE CAS MULTIVARIÉ (N VARIABLES) = ANNEXE…
58
COURS D’OPTIMISATION / R. ABABOU 2004-05
ANNEXE : EXERCICES POUR LA 1ère PARTIE
OPTIMISATION SANS CONTRAINTE
1. *Résoudre: Min J(x) = 3+(x+1)(x-2) : trouver xOPT et JOPT.
OPTIMISATION SOUS CONTRAINTE
2. a) Résoudre directement : Min J(x) = 3+(x+1)(x-2) s.c. x t b .
En déduire les relations xOPT(b) et JOPT(b).
b) Que représente concrètement le paramètre défini par O = -dJ/db ?
3. a) Formuler et résoudre le problème (2) par la méthode générale.
Indications : on transforme le problème en un problème de minimisation libre (sans contrainte) ;
1ère étape - introduire une variable d'ajustement; 2ème étape – introduire un multiplicateur de Lagrange.
b) Comparer les résultats à l’approche directe précédente (interprétation du multiplicateur de Lagrange ?).
PROGRAMMATION LINÉAIRE (SIMPLEXE GRAPHIQUE)
MOINDRES CARRÉS
DIVERS
59
COURS D’OPTIMISATION / R. ABABOU 2004-05
2ème PARTIE :
OPTIMISATION FONCTIONNELLE
(CALCUL VARIATIONNEL)
60
COURS D’OPTIMISATION / R. ABABOU 2004-05
I.
INTÉGRALES D’ENERGIE & CALCUL VARIATIONNEL
(EULER-LAGRANGE)
61
COURS D’OPTIMISATION / R. ABABOU 2004-05
II.
APPLICATIONS DU CALCUL VARIATIONNEL :
GÉODÉSIQUES, CHEMINS & SURFACES MINIMALES…
62
COURS D’OPTIMISATION / R. ABABOU 2004-05
‰
BIBLIOGRAPHIE THEMATIQUE SUR L'OPTIMISATION
3
Références Internes (R.A.)
‰
‰
‰
‰
‰
‰
‰
‰
RA/Summaries/Optim.
RA/Résumés/Iter/CG.
RA/Résumés/Surfaces.
RA/Polys/…/…/Estimation
RA/Paper/MIT86/Optim.Irrig.Schedul.: Stoch.Dyn.Pgrming
RA/Paper/Princeton89/G.W.Pump.Remed.: Chance.Constrain.Pgrming
AWR 1992 / RA+OtherPapers : Model Calibration, Model Validation.
JH 1999 / RA : Optim.In.Out.Deconvol.
Références générales, mathématiques, encyclopédiques
‰
‰
‰
‰
‰
‰
‰
‰
‰
‰
Bradley, Hax, Magnanti : Applied Mathematical Programming. Addison-Wesley.
H.A.Taha : Operations Research, 2nd edition, Collier-McMilan.
A.Kaufmann: Méthodes et modèles de la recherche opérationnelle. 2 Vols. [Bibliothèque N7].
D.G.Luenberger : Linear and Nonlinear Programming. 2nd edition. Addison-Wesley, Reading, Massachusets, 1989, 491 pp.
[©1973+1984 Addison-Wesley].
D.G.Luenberger : Introduction to Linear and Nonlinear Programming. [Bib.N7].
Ortega J.C. et W.C.Rheinboldt: Iterative solution of nonlinear equations in several variables. Comput. Sci. Appl. Math. Series
(Rheinboldt ed.). Academic Press. New York 1970. [Chap.4 & Chap.8].
Press et al : Numerical Recipes. … [Section…]
F.Reinhardt et H.Soeder: Atlas des Mathématiques (trad. de l'allemand). Section "Optimisation linéaire", pp.478-483.
J.Abadie (ed.): Nonlinear Programming. North-Holland, Amsterdam, 1967. [éditeur J.Abadie (EDF Paris); articles par G.B.Danzig,
H.W.Kuhn, et autres].
J.Cea: Optimisation : théorie et algorithmes. Gauthier-Villars. Paris.
3
Les références soulignées peuvent être considérées comme plus générales et moins spécialisées que les autres. Une référence peut se trouver classée dans plus d'une
rubrique thématique (redondances).
63
COURS D’OPTIMISATION / R. ABABOU 2004-05
‰
‰
‰
J.P.Aubin, P.Nepomishtchy, A.M.Charles: Méthodes explicites de l'optimisation. Gauthier-Villars. Paris.
R.Horst et P.M.Pardalos (eds.): Handbook of Global Optimization. Kluwer Academic Publishers. Boston 1995. [collection d'articles,
900 pages environ].
C.G.E.Boender et H.E.Romeijn : Stochastic Methods [for Global Optimization]. Handbook of Global Optimization (C.G.E.Boender et
H.E.Romeijn eds.). Boston 1995, pp.829-869. [spécialisé].
Mécanique, hydrodynamique, interfaces et surfaces
‰
‰
‰
‰
C. Lanczos : The Variational Principles of Mechanics. Dover N.Y. 1986, 418 pp. [republication of 4th edition, University of Toronto
Press, Toronto 1970].
S.Hildebrandt et A.Tromba: Mathematics and Optimal Form. The Scientific American Library, N.Y. 1984, 215 pp.
C.Isenberg: The science of soap films and bubbles, …
Hale et Lasalle: Differential Equations : Linearity versus Nonlinearity. SIAM Review, Vol.5, No.3, July 1963 [cité par R.Isaacs
1965].
Programmation dynamique (et processus temporels)
‰
‰
‰
‰
R.Bellman: Dynamic Programming. [Bibliothèque N7].
R.Bellman: Applied Dynamic Programming. [Bibliothèque N7].
R.Bellman: Programmation Dynamique Appliquée. [Bib. N7] [trad. de l'anglais].
R.A. Howard: Dynamic Programming and Markov Processes, The MIT Press 1960 [Published version of Sc.D. thesis, MIT, 1958].
[très spécialisé]
Estimation optimale et contrôle (processus temporels)
‰
‰
‰
‰
‰
Gelb (editor) : Applied Optimal Estimation, The MIT Press.
A. Tarantola : Inverse Problem Theory.
K.Astrom: Intro. Stochastic Control Theory [Bibliothèque N7].
P.Lefevre: Optim. Statist. des Syst. Dynamiques. [Bibliothèque N7].
Hale et Lasalle: Differential Equations : Linearity versus Nonlinearity. SIAM Review, Vol.5, No.3, July 1963 [cité par R.Isaacs
1965].
Estimation, contrôle, et problèmes inverses (EDP)
64
COURS D’OPTIMISATION / R. ABABOU 2004-05
‰
‰
‰
A. Tarantola : Inverse Problem Theory.
J.L.Lions: Contrôle optimal des systèmes gouvernés par des équations aux dérivées partielles. Dunod, Gauthier-Villars. Paris 1968
[sans doute épuisé].
J.L.Lions: Contrôle des systèmes distribués singuliers, Vol.13 de la série "Méth. Math. Informat.", Gauthier-Villars. Paris 1983 [très
spécialisé].
Econométrie, gestion, théorie des jeux
‰
‰
‰
R.Isaacs: Differential Games (a mathematical theory with applications to warfare and pursuit, control and optimization). Dover
Publications Inc, NY, 1999, 384 pp. [republication of Wiley 1965 edition].
P.A.Samuelson: Foundation of economic analysis. Harvard University Press. Enlarged edition, Cambridge, Massachusets, 1983.
Dorfman, Samuelson, Solow: Linear Programming and Economic Analysis. Dover.
Calcul numérique + divers…
‰
‰
‰
‰
Ortega J.C. et W.C.Rheinboldt: Iterative solution of nonlinear equations in several variables. Comput.Sci.Appl.Math. series
(Rheinboldt ed.). Academic Press. 1970. [Chap.4 & Chap.8].
Chavent (et al?): Article sur le calage de modèles et la régression nonlinéaire. Advances in Water Resources (1992? 1994?)….
Press et. al. : Numerical Recipes. Section……
D. Knuth : www-cs.stanford.edu/ …
65
COURS D’OPTIMISATION / R. ABABOU 2004-05
‰
LISTE ALPHABETIQUE DES REFERENCES
Liste en préparation (établie à partir des références citées dans le texte et de la bibliographie thématique ci-dessus)..
66
COURS D’OPTIMISATION / R. ABABOU 2004-05
3ème PARTIE :
ANNEXES DU COURS
ET BUREAUX D’ÉTUDES
‰
‰
A1 : CALCUL VARIATIONNEL : DÉRIVATION DES FORMULES D’EULER-LAGRANGE
B1 : LISTE DE PROJETS D’OPTIMISATION (BUREAUX D’ÉTUDES)
67
COURS D’OPTIMISATION / R. ABABOU 2004-05
ANNEXE A1 :
CALCUL VARIATIONNEL :
DÉRIVATION DES FORMULES D’EULER-LAGRANGE
68
COURS D’OPTIMISATION / R. ABABOU 2004-05
ANNEXE B1 :
LISTE DE PROJETS D’OPTIMISATION
(BUREAUX D’ÉTUDES)
69

Documents pareils