Optimiser au gré du hasard
Transcription
Optimiser au gré du hasard
B.A.-BA (pré-publication) Optimiser au gré du hasard Le hasard a souvent été perçu comme un fléau que l’on ne pouvait pas maîtriser. Cependant depuis quelques décennies, il est utilisé pour réaliser des taches où curieusement il n’intervenait pas auparavant. C’est le cas des problèmes de décision qui nécessitent de rechercher une combinaison optimale de facteurs au regard d’un critère de choix. Contrairement à toute intuition, on a découvert que pour optimiser un tel critère, il n’est pas utile d’examiner toutes les combinaisons des facteurs, mais qu’un examen aléatoire bien mené suffit à trouver la combinaison optimale. Bernard Chalmond est professeur en Sciences de l’Information à l’université de Cergy-Pontoise et chercheur à l’Ecole Normale Supérieure de Cachan. Pour reconnaître le chiffre 4, on déforme aléatoirement le dessin d’un quatre jusqu’à optimisation d’une fonction d’adéquation entre le dessin et l’image Le souci d’optimisation est devenu un maître mot à tous les niveaux de notre société, jusqu’à en devenir une obsession en certains lieux. Ainsi, cherche-t-on à optimiser l’organisation du temps de travail, la répartition des ressources, la qualité des produits manufacturés, le rendement des placements boursiers, l’efficacité des médicaments, la puissance des armes…. Cette liste pourrait se poursuivre sur de nombreuses colonnes. L’optimisation (en terme de minimisation ou de maximisation) est en fait un soucis ancien inhérent à l’intelligence humaine et que chacun d’entre nous pratique de façon naturelle. Il est associé à la recherche du travail ou de l’outil bien fait, et en ce sens il remonte à l’homofaber qui chercha de tout temps à améliorer ses outils de pierre jusqu’à obtenir une forme et une utilisation parfaites. Traditionnellement les gens de métiers ont pratiqué l’optimisation de façon intuitive par tâtonnements, leur savoir-faire guidant les améliorations successives apportées à la conception de leur ouvrage. Mais en quoi, l’optimisation moderne se distingue-t-elle de cette pratique ancestrale ? Hé bien, tout d’abord par la formalisation des problèmes. Ainsi, la version moderne de la mise au point de la meilleure hache de pierre consisterait à se donner un critère de qualité, par exemple la puissance de coupe qu’on exprimerait en fonction d’un ensemble de facteurs influents comme des paramètres de forme de la hache et de dureté de la pierre. Il ne resterait alors plus qu’à trouver la configuration optimale des facteurs, c’est-àdire celle qui maximise la puissance de coupe F(X) où X désigne l’ensemble des facteurs. Cette formalisation qui trouve ses origines au XVIIIième siècle, est devenue pleinement opérationnelle grâce à la puissance des ordinateurs. En effet, jusqu’alors seules les Page 48 / OCTOBRE 2002 LA RECHERCHE 357 problèmes autorisant le calcul analytique de la solution optimale pouvaient être considérés comme c’est le cas de la 2 parabole F(X)=X dont le minimum est X=0. Bien sûr, les problèmes rencontrés en pratique conduisent en général à des fonctions F d’une complexité incommensurablement plus grande que celle de la simple parabole et pour lesquels la solution analytique n’est pas accessible. Ces fonctions peuvent dépendre d’un très grand nombre de facteurs, mais surtout posséder des solutions optimales « locales ». Pour comprendre ces solutions particulières, risquons une analogie avec la surface d’un paysage de montagne représentée par la fonction d’altitude à deux facteurs que sont les coordonnées géographiques. La minimisation de la fonction d’altitude, c’est-à-dire la recherche de la vallée la plus profonde est rendue très difficile de par l’existence de vallées intermédiaires –les minima locaux de la fonction– qui perturbent notre perception : un randonneur égaré dans le brouillard ne saura pas s’il a atteint la vallée la plus profonde –le minimum « global » de la fonction– ou s’il doit poursuivre sa route. Face à ces difficultés, la pratique de l'optimisation moderne est principalement numérique et repose sur des algorithmes itératifs. Le principe consiste à démarrer l’algorithme avec une configuration particulière de facteurs puis à modifier progressivement les facteurs au fur et à mesure des itérations jusqu'à obtention d’une solution optimale. La question de fond concerne la façon de modifier les facteurs. Dans la seconde moitié du XXième siècle, la recherche d’algorithmes efficaces a été un objectif technologique de première importance. En effet, de nombreuses démarches scientifiques passent par l’optimisation d’une fonction F(X) : fonction La minimisation du coût de déplacement entre les villes, est le résultat d’une succession de tirages aléatoires de circuits qui progressivement minimise le coût. Cette rubrique a été élaborée en collaboration avec la collection SCOPOS publié par Spinger (www. scopos.org). énergétique en physique, fonction de coût en économie, fonction d’adaptation en biologie… Le problème du calcul de solutions optimales est donc récurrent : scientifiques et ingénieurs y sont régulièrement confrontés, et malgré cela il n’existe pas d’algorithme entièrement fiable, c’est-à-dire utilisable comme une « boite noire». Le praticien doit calibrer l’algorithme de son choix en fonction de la situation. Cependant, un algorithme se dégage de par son universalité car il permet de calculer la solution optimale dans les situations les plus complexes au détriment néanmoins de lourd temps de calcul: c’est l’algorithme dit du « recuit simulé ». Cet algorithme proposé au début des années quatre-vingt a connu un grand retentissement . Son invention s’inspire de la mécanique statistique qui traite du comportement de grand système en équilibre. Quand les atomes X d’un métal en fusion sont lentement refroidis jusqu’à la température zéro, ils tendent vers un état qui minimise l’énergie F(X) du système. L’état final correspond en fait à un minimum local d’énergie. Le métal peut alors être rechauffé puis refroidi lentement dans l ‘espoir d’atteindre un minimum d’énergie inférieur. L’algorithme du recuit simulé mime cette mécanique. De nombreux travaux mathématiques ont analysé son comportement . Ils apportent la preuve de sa convergence vers un minimum global et donne le schéma du refroidissement nécessaire à la convergence. Le « problème du voyageur de commerce » est l’un des exemples les plus connu. Il s’agit de relier un ensemble de N villes par un circuit qui minimise le coût de déplacement F(X) où X=(X1,…,XN) représente l’ordre suivant lequel les villes sont visitées. Un examen systématique de tous les circuits n’est pas envisageable du fait du temps de calcul gigantesque que cela demanderait. Or, l’algorithme du recuit simulé permet d’atteindre le circuit optimal sans examiner tous les circuits. Tout randonneur sait que pour atteindre le fond de Page 48 / OCTOBRE 2002 LA RECHERCHE 357 la vallée la plus profonde, une descente par un chemin toujours descendant est une mauvaise stratégie car on peut déboucher dans une vallée intermédiaire d’où aucun chemin descendant ne part. Pour continuer à descendre, il faut donc accepter de remonter au-dessus de cette vallée pour reprendre un autre chemin descendant. L’algorithme du recuit simulé reflète cette stratégie. Il démarre avec un circuit initial quelconque qui est progressivement modifié, l’ordre de modification des villes étant aléatoire. La façon la plus immédiate de procéder consisterait à n’accepter que les modifications qui font décroître la fonction de coût F , et à retenir comme circuit final celui pour lequel toutes modifications n' entraînent pas de baisse de la fonction de coût. Mais dans ce cas, rien ne nous assure que si l’algorithme était parti d’un autre circuit initial, il aurait atteint le même circuit final. Pour ne pas rester piéger par un circuit faussement optimal –une vallée intermédiaire– , il faut donc pouvoir continuer l’exploration des circuits. Pour ce faire, l’algorithme accepte aussi des modifications entraînant une augmentation de la fonction de coût mais seulement dans un intervalle aléatoire dont la largeur tend progressivement vers zéro au fur et à mesure des itérations (comme la température de la mécanique statistique). Ainsi chemin faisant, on explore de façon aléatoire l’ensemble du « paysage » des circuits et les mathématiques montrent que si la décroissance de la largeur de l’intervalle est suffisamment lente alors le circuit final est le circuit optimal. Cet algorithme trouve des applications en des secteurs très variés et en particulier en reconnaissance des formes. Pour localiser un caractère alpha numérique dans une image, on est amené à déformer progressivement un dessin de ce caractère (l’équivalent du circuit précédent) jusqu’à ce que la fonction de coût qui mesure l’adéquation entre le dessin et l’image soit optimale. B.C. ■