Avancées dans les heuristiques de recherche aléatoire
De nouveaux opérateurs de mutation améliorent les performances des algorithmes évolutifs dans les problèmes d'optimisation.
― 6 min lire
Table des matières
- C'est quoi les Heuristiques de Recherche Randonnées ?
 - Algorithmes évolutionnaires : Un Type Spécifique de RSH
 - L'Importance de la Distance dans l'Optimisation
 - Utiliser les Connaissances du Domaine pour Améliorer les Algorithmes
 - Opérateurs de Mutation Proposés
 - Validation Expérimentale
 - Conclusion
 - Source originale
 - Liens de référence
 
Dans le monde de la résolution de problèmes, il y a différentes façons de trouver des réponses à des questions difficiles, surtout quand on parle de systèmes complexes. Un de ces moyens s'appelle les heuristiques de recherche randonnées (RSH). Ces approches sont pratiques pour trouver des solutions assez bonnes, même si elles ne garantissent pas la meilleure réponse.
C'est quoi les Heuristiques de Recherche Randonnées ?
Les heuristiques de recherche randonnées sont des outils qui aident à s'attaquer aux problèmes d'optimisation. Ces problèmes consistent à trouver la meilleure solution parmi un ensemble d'options possibles. Même si ces algorithmes ne trouvent pas directement la meilleure réponse, ils visent à s'en rapprocher dans un temps raisonnable.
Quand on utilise ces algorithmes, l'utilisateur doit définir un espace de recherche. C'est l'endroit où on peut trouver des solutions possibles, et il y a aussi une fonction objective qui décrit ce que l'utilisateur veut atteindre. Cependant, évaluer cette fonction peut prendre beaucoup de temps et de ressources.
Algorithmes évolutionnaires : Un Type Spécifique de RSH
Un type populaire d'heuristique de recherche randonnée s'appelle les algorithmes évolutionnaires (EAs). Ces algorithmes sont inspirés par le processus de l'évolution naturelle, où les individus les plus aptes ont plus de chances de survivre et de transmettre leurs traits à la génération suivante. Les EAs utilisent une population de solutions qui évoluent au fil du temps grâce à des processus comme la sélection, la reproduction et la variation.
Un aspect clé des EAs est une propriété appelée localité. Cela signifie que de petits changements à une solution devraient mener à des performances similaires selon la méthode d'évaluation utilisée. Par exemple, si une solution est légèrement différente d'une autre, elles devraient avoir des performances similaires en termes de résolution du problème.
L'Importance de la Distance dans l'Optimisation
Dans l'optimisation, la distance joue un rôle crucial. Une métrique de distance aide à mesurer à quel point deux solutions diffèrent l'une de l'autre. Cela peut se faire en utilisant différents types de distances, comme la distance de Hamming pour les problèmes avec des solutions binaires ou la distance euclidienne pour les problèmes avec des valeurs continues.
S'il existe une bonne métrique de distance, cela peut améliorer considérablement les performances d'un algorithme évolutionnaire. Cependant, créer ou trouver cette métrique de distance peut nécessiter des connaissances spécifiques sur le problème à résoudre.
Utiliser les Connaissances du Domaine pour Améliorer les Algorithmes
Pour prendre un avantage, les chercheurs ont identifié plusieurs stratégies pour utiliser les connaissances sur le domaine du problème. Voici quelques-unes de ces stratégies :
Opérateurs de mutation Asymétriques : Certaines méthodes ajustent les opérations de mutation en fonction de ce qu'on sait sur le problème. En personnalisant la façon dont les mutations sont effectuées, il est possible d'obtenir de meilleures performances.
Représentation Améliorée : Cela implique d'utiliser des représentations de solutions qui sont mieux adaptées au problème. Choisir la bonne façon de représenter une solution peut mener à des processus de recherche plus efficaces.
Approches Basées sur les Données : Les algorithmes peuvent utiliser des données des exécutions précédentes pour sélectionner les méthodes les plus efficaces pour de nouveaux problèmes, les rendant ainsi plus adaptables.
Ensembles Diversifiés de Solutions Candidates : Utiliser des solutions diverses dans le processus de recherche peut aider l'algorithme à explorer l'espace de solutions plus efficacement. Garder un groupe varié de solutions potentielles peut éviter que l'algorithme ne se bloque dans un seul domaine.
Opérateurs de Mutation Proposés
Dans ce travail, deux nouveaux opérateurs de mutation ont été développés pour améliorer le fonctionnement des algorithmes évolutionnaires, surtout en ce qui concerne la métrique de distance. Ces opérateurs visent à aider l'algorithme à apporter des changements meilleurs et plus informés à ses candidats sans que l'utilisateur ait besoin de faire des modifications importantes à l'algorithme lui-même.
Le premier opérateur utilise des connaissances préalables des distances entre les solutions, lui permettant de faire des mutations bien informées. Le deuxième opérateur fonctionne sans aucune connaissance spécifique concernant la structure de la distance et la traite comme une boîte noire.
Les deux opérateurs utilisent une technique appelée estimation de distribution, qui aide à sélectionner les meilleures mutations en fonction de la métrique de distance définie.
Validation Expérimentale
Pour confirmer l'efficacité des opérateurs de mutation proposés, des expériences ont été menées en utilisant différents types de problèmes. Les résultats ont montré que les deux opérateurs de mutation ont conduit à des recherches plus rapides pour des solutions par rapport aux méthodes traditionnelles. Les algorithmes ont été testés sur une variété de problèmes pour assurer leur fiabilité dans différents scénarios.
Problèmes Binaires : La performance des nouveaux opérateurs de mutation a été évaluée en utilisant des problèmes d'optimisation binaires. Les résultats ont montré une amélioration par rapport aux méthodes traditionnelles alors que les algorithmes s'adaptaient aux distances utilisées dans les problèmes.
Problèmes Entiers : Les opérateurs ont également été appliqués à des problèmes d'optimisation entiers. Dans ces cas, des améliorations significatives des performances ont été notées, notamment sur les problèmes où les distances étaient clairement définies.
Conclusion
Le développement d'opérateurs de mutation guidés par la distance offre de nouvelles options pour améliorer les performances des algorithmes évolutionnaires dans la résolution de divers problèmes d'optimisation. En s'appuyant sur des distances connues ou en les considérant comme inconnues, ces opérateurs permettent une plus grande flexibilité dans les approches de résolution de problèmes.
Alors que les nouveaux opérateurs offrent de meilleures performances, des défis demeurent, comme la nécessité de contrôler soigneusement les paramètres et la possibilité de perdre en efficacité dans certains types de problèmes.
Les travaux futurs se concentreront sur le perfectionnement de ces méthodes, en s'attaquant potentiellement aux lacunes observées dans certains cas, et en améliorant la façon dont les algorithmes définissent et utilisent les Mesures de distance pour optimiser les performances dans un éventail plus large de scénarios.
L'intégration des connaissances du domaine dans les algorithmes d'optimisation continue d'être un domaine d'exploration fructueux, aidant à la recherche de meilleures solutions à des problèmes complexes.
Titre: Representation-agnostic distance-driven perturbation for optimizing ill-conditioned problems
Résumé: Locality is a crucial property for efficiently optimising black-box problems with randomized search heuristics. However, in practical applications, it is not likely to always find such a genotype encoding of candidate solutions that this property is upheld with respect to the Hamming distance. At the same time, it may be possible to use domain-specific knowledge to define a metric with locality property. We propose two mutation operators to solve such optimization problems more efficiently using the metric. The first operator assumes prior knowledge about the distance, the second operator uses the distance as a black box. Those operators apply an estimation of distribution algorithm to find the best mutant according to the defined in the paper function, which employs the given distance. For pseudo-boolean and integer optimization problems, we experimentally show that both mutation operators speed up the search on most of the functions when applied in considered evolutionary algorithms and random local search. Moreover, those operators can be applied in any randomized search heuristic which uses perturbations. However, our mutation operators increase wall-clock time and so are helpful in practice when distance is (much) cheaper to compute than the real objective function.
Auteurs: Kirill Antonov, Anna V. Kononova, Thomas Bäck, Niki van Stein
Dernière mise à jour: 2023-06-05 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2306.02985
Source PDF: https://arxiv.org/pdf/2306.02985
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.