OPTIMISATION & CONTRÔLE
Carte mentale
Élargissez votre recherche dans Universalis
L'avènement du calcul différentiel, au xviie siècle, a permis de caractériser le minimum d'une fonction f par l'équation f′(x) = 0. On résolvait ainsi d'un coup une foule de problèmes pratiques, tout en soulevant de grandes questions théoriques : peut-on affirmer a priori l'existence d'un minimum ? L'équation f′(x) = 0 donne-t-elle une caractérisation complète ? D'où trois grands axes de développement que l'on retrouve aujourd'hui : les problèmes d'existence, les conditions nécessaires et les conditions suffisantes.
Très vite, on a cherché à étendre ces procédés à des problèmes plus généraux, où l'on cherche non plus un point qui minimise une fonction, mais une courbe qui minimise une intégrale. Le xviiie et le xixe siècle sont l'âge d'or du calcul des variations et les plus grands, d'Euler à Hilbert en passant par Jacobi (cf. l. euler, d. hilbert, c. jacobi), y apportèrent tous leur contribution. La plupart des problèmes posés sont d'origine physique et mécanique et l'on s'intéresse moins à minimiser l'intégrale qu'à trouver une courbe qui satisfasse aux conditions nécessaires, les fameuses équations d'Euler-Lagrange.
Tout change dans la seconde moitié du xxe siècle. L'homme ne va plus chercher ses problèmes dans la nature, mais dans l'environnement qu'il se crée. En ingénierie, en gestion, on construit des systèmes complexes, susceptibles d'une modélisation mathématique précise, et dont l'opération se traduit par un coût ou un gain chiffrable. L'avènement des calculateurs a rendu possible l'analyse de tels systèmes, tout en faisant craquer les cadres anciens du calcul des variations.
Aujourd'hui, le concept d'optimisation est bien dégagé. Il s'agit de prendre la meilleure décision possible compte tenu de contraintes imposées du dehors. La modélisation mathématique suppose que l'on définisse a priori l'ensemble de toutes les décisions possibles, et qu'à chacune d'elles on attribue une note chiffrée. Cette note cote la performance au regard d'un certain critère ; par exemple, le gain ou le coût financier que procure la décision. Optimiser, c'est choisir la décision qui a la meilleure note.
Certains systèmes ont une structure temporelle : il faut prendre des décisions au jour le jour, alors que le résultat ne pourra être apprécié qu'au bout d'un temps assez long, une année par exemple. Il s'agit de problèmes de contrôle optimal. La difficulté principale est qu'une décision prise aujourd'hui engage l'avenir. Le rôle de la théorie est d'arbitrer entre le long terme et le court terme.
Enfin, la notion d'optimisation se prolonge de diverses façons. Il peut y avoir plusieurs critères simultanés, c'est-à-dire plusieurs manières d'évaluer une même situation : cela conduit à la notion d'optimum de Pareto (cf. v. pareto et économie mathématique). Ma situation peut dépendre non seulement de ma décision, mais de celles que prendront d'autres individus, partenaires ou adversaires : on rentre alors dans la théorie des jeux (cf. théorie des jeux).
La théorie abstraite
Le cadre général
On se donne un ensemble X et une fonction f : X → R ∪ {+ ∞}. L'introduction de la valeur + ∞ est ici essentielle, tant pour des raisons de commodité théorique que de nécessité pratique, comme on le verra. Un problème d'optimisation (

Un tel point x̄ sera appelé solution optimale, ou tout simplement solution du problème (

Sans conditions supplémentaires, on ne peut affirmer l'existence d'une solution optimale. Par contre, on peut toujours affirmer l'existence de suites minimisantes, c'est-à-dire de suites (xn) dans X telles que :

Le second membre est soit + ∞ (si X ne rencontre pas l'ensemble des points où f est finie), soit fini, soit − ∞ (on dit alors que f n'est pas bornée inférieurement). On l'appelle souvent la valeur du problème (

Les suites minimisantes sont un instrument très important dans la théorie comme dans la pratique. C'est en établissant la convergence de certaines suites minimisantes qu'on montre l'existence de solutions optimales, et c'est en construisant ces suites minimisantes par des algorithmes appropriés qu'on résout numériquement [...]
1
2
3
4
5
…
pour nos abonnés,
l’article se compose de 8 pages
Écrit par :
- Ivar EKELAND : professeur de mathématiques à l'université de Paris-IX-Dauphine (Centre de recherche de mathématiques de la décision). président honoraire à l'Université Paris-Dauphine
Classification
Autres références
« OPTIMISATION & CONTRÔLE » est également traité dans :
AUTOMATISATION
Dans le chapitre « La classification par un réseau de neurones » : […] Supposons que l'on désire classer des « formes » en deux catégories (A ou B) en fonction de certaines caractéristiques de ces formes, on peut définir une fonction ϕ qui prend la valeur + 1 pour toutes les formes de la classe A et — 1 pour toutes les formes de la classe B. On peut démontrer que cette approximation constitue une probabilité d'appartenance de la forme inconnue à la classe A. Les cla […] Lire la suite
CONVEXITÉ - Ensembles convexes
Dans le chapitre « Points extrémaux » : […] Les fonctions convexes et concaves présentent des propriétés très utiles dans les problèmes d' optimisation. Par exemple, soit f une fonction convexe définie dans un domaine convexe D d'un espace vectoriel topologique localement convexe E ; alors tout minimum local de f dans D est un minimum global , c'est-à-dire que si un point x 0 de D possède un voisinage U tel que f ( x ) ≥ f ( x 0 ) pour t […] Lire la suite
FONCTIONS REPRÉSENTATION & APPROXIMATION DES
Dans le chapitre « Optimisation de l'approximation » : […] Avec les notations du chapitre précédent, nous allons étudier les deux problèmes suivants : a ) l'unicité de l'élément ϕ n de E n optimisant l'approximation de f par les éléments de E n ; il est alors intéressant de construire des méthodes explicites de calcul de ϕ n ; b ) la distance δ n ( f ) tend-elle vers 0 si n tend vers + ∞ ? Si oui, déterminer la vitesse de convergence en fonction d […] Lire la suite
NUMÉRIQUE ANALYSE
Dans le chapitre « Cadre théorique » : […] Soit f une fonction continue sur [α, β]. Pour obtenir des valeurs approchées de : on effectue une subdivision à pas constants de [α, β] et, sur chaque intervalle [ a , b ] ainsi déterminé, on effectue une interpolation de f par une fonction polynomiale de degré ≤ p où p est un entier donné. On introduit donc un système interpolateur S = {α 0 , α 1 , ..., α p } de points de [ a , b ] et le […] Lire la suite
RÉSEAUX DE NEURONES
Dans le chapitre « L'apprentissage des réseaux de neurones formels » : […] L'apprentissage, pour les réseaux de neurones formels, consiste à calculer les paramètres de telle manière que les sorties du réseau de neurones soient, pour les exemples utilisés lors de l'apprentissage, aussi proches que possible des sorties « désirées », qui peuvent être le code de la classe à laquelle appartient la forme que l'on veut classer, la valeur de la fonction que l'on veut approcher o […] Lire la suite
Voir aussi
Pour citer l’article
Ivar EKELAND, « OPTIMISATION & CONTRÔLE », Encyclopædia Universalis [en ligne], consulté le 23 mai 2022. URL : https://www.universalis.fr/encyclopedie/optimisation-et-controle/