OPTIMISATION & CONTRÔLE
L'avènement du calcul différentiel, au xviie siècle, a permis de caractériser le minimum d'une fonction f par l'équation f′(x) = 0. On résolvait ainsi d'un coup une foule de problèmes pratiques, tout en soulevant de grandes questions théoriques : peut-on affirmer a priori l'existence d'un minimum ? L'équation f′(x) = 0 donne-t-elle une caractérisation complète ? D'où trois grands axes de développement que l'on retrouve aujourd'hui : les problèmes d'existence, les conditions nécessaires et les conditions suffisantes.
Très vite, on a cherché à étendre ces procédés à des problèmes plus généraux, où l'on cherche non plus un point qui minimise une fonction, mais une courbe qui minimise une intégrale. Le xviiie et le xixe siècle sont l'âge d'or du calcul des variations et les plus grands, d'Euler à Hilbert en passant par Jacobi (cf. l. euler, d. hilbert, c. jacobi), y apportèrent tous leur contribution. La plupart des problèmes posés sont d'origine physique et mécanique et l'on s'intéresse moins à minimiser l'intégrale qu'à trouver une courbe qui satisfasse aux conditions nécessaires, les fameuses équations d'Euler-Lagrange.
Tout change dans la seconde moitié du xxe siècle. L'homme ne va plus chercher ses problèmes dans la nature, mais dans l'environnement qu'il se crée. En ingénierie, en gestion, on construit des systèmes complexes, susceptibles d'une modélisation mathématique précise, et dont l'opération se traduit par un coût ou un gain chiffrable. L'avènement des calculateurs a rendu possible l'analyse de tels systèmes, tout en faisant craquer les cadres anciens du calcul des variations.
Aujourd'hui, le concept d'optimisation est bien dégagé. Il s'agit de prendre la meilleure décision possible compte tenu de contraintes imposées du dehors. La modélisation mathématique suppose que l'on définisse a priori l'ensemble de toutes les décisions possibles, et qu'à chacune d'elles on attribue une note chiffrée. Cette note cote la performance au regard d'un certain critère ; par exemple, le gain ou le coût financier que procure la décision. Optimiser, c'est choisir la décision qui a la meilleure note.
Certains systèmes ont une structure temporelle : il faut prendre des décisions au jour le jour, alors que le résultat ne pourra être apprécié qu'au bout d'un temps assez long, une année par exemple. Il s'agit de problèmes de contrôle optimal. La difficulté principale est qu'une décision prise aujourd'hui engage l'avenir. Le rôle de la théorie est d'arbitrer entre le long terme et le court terme.
Enfin, la notion d'optimisation se prolonge de diverses façons. Il peut y avoir plusieurs critères simultanés, c'est-à-dire plusieurs manières d'évaluer une même situation : cela conduit à la notion d'optimum de Pareto (cf. v. pareto et économie mathématique). Ma situation peut dépendre non seulement de ma décision, mais de celles que prendront d'autres individus, partenaires ou adversaires : on rentre alors dans la théorie des jeux (cf. théorie des jeux).
La théorie abstraite
Le cadre général
On se donne un ensemble X et une fonction f : X → R ∪ {+ ∞}. L'introduction de la valeur + ∞ est ici essentielle, tant pour des raisons de commodité théorique que de nécessité pratique, comme on le verra. Un problème d'optimisation (P) consiste à chercher le ou les points x̄ qui réalisent le minimum de f sur X :
Un tel point x̄ sera appelé solution optimale, ou tout simplement solution du problème (P). On appelle souvent X le domaine permis, et ses éléments les points admissibles. La fonction f est le coût, ou le critère. Le problème (P) lui-même sera noté[...]
La suite de cet article est accessible aux abonnés
- Des contenus variés, complets et fiables
- Accessible sur tous les écrans
- Pas de publicité
Déjà abonné ? Se connecter
Écrit par
- Ivar EKELAND : professeur de mathématiques à l'université de Paris-IX-Dauphine (Centre de recherche de mathématiques de la décision). président honoraire à l'Université Paris-Dauphine
Classification
Médias
Autres références
-
AUTOMATISATION
- Écrit par Jean VAN DEN BROEK D'OBRENAN
- 11 882 mots
- 12 médias
Les algorithmes d'apprentissage sont généralement des algorithmes d'optimisation : ils cherchent à minimiser une fonction « de coût » qui mesure l'écart entre les réponses réelles et les réponses optimisées. L'optimisation se fait de manière itérative. Il existe des algorithmes d'optimisation non linéaire... -
CONVEXITÉ - Ensembles convexes
- Écrit par Victor KLEE
- 4 666 mots
- 7 médias
De nombreux problèmes de programmation linéaire et d'optimisation reviennent à trouver les points d'un polyèdre P où une fonction linéaire atteint son minimum ; on montre que, si P est borné, le minimum est alors atteint en un des sommets de P et certains procédés de résolution de programmes linéaires... -
FONCTIONS REPRÉSENTATION & APPROXIMATION DES
- Écrit par Jean-Louis OVAERT et Jean-Luc VERLEY
- 18 453 mots
- 6 médias
Avec les notations du chapitre précédent, nous allons étudier les deux problèmes suivants : -
NUMÉRIQUE ANALYSE
- Écrit par Jean-Louis OVAERT et Jean-Luc VERLEY
- 6 378 mots
On obtient une autre estimation, beaucoup plus fine que celle qui est donnée par le théorème 2, par la théorie de l'optimisation. En appliquant le théorème 4 du chapitre précédent, on obtiendra ce qui suit.