faculté des sciences département d'informatique · voisinage v et une procédure exploitant...

19
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L' ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D'ORAN -MOHAMMED BOUDIAF- USTO-MB Faculté des Sciences Département d'Informatique Sujet : Présenté Par : BENYETTOU Assia OPTION : R.F.I.A Module : Responsable du module : Optimisation Avancée M r BENYETTOU MOHAMED LA METHODE KANGOUROU LA METHODE KANGOUROU LA METHODE KANGOUROU LA METHODE KANGOUROU

Upload: others

Post on 16-Oct-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTERE DE L' ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE

UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D'ORAN

-MOHAMMED BOUDIAF-

USTO-MB

Faculté des Sciences Département d'Informatique

Sujet :

Présenté Par :

BENYETTOU Assia

OPTION :

R.F.I.A

Module : Responsable du module :

Optimisation Avancée Mr BENYETTOU MOHAMED

LA METHODE KANGOUROULA METHODE KANGOUROULA METHODE KANGOUROULA METHODE KANGOUROU

Page 2: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

1

Sommaire

Introduction ………………………………………………………………2 1.Definition……………………………………………………….……....2 1.1.Propriétés des métaheuristiques…………………………………….2 1.2.Classification………………………………………………………..3 1.2.1-Les méthodes exactes………………………………….……...3 1.2.2-Les méthodes approchés……………………………………...3 2.Descente stochastique…………………………………………………..4 2.1.Schéma général de la descente stochastique………………………..6 2.2.Algorithmes basés sur la descente stochastique……………………6 2.3.Méthode de descente aléatoire répétée……………………………..6 3.Evolution de descente stochastique (le recuit simulé)………………….7 4.Du recuit simulé à l’algorithme de Kangourou………………………...8 5.La méthode Kangourou………………………………………………...9 5.1.Notion de voisinage………………………………………...………9 5.2.Principe…………………………………………………………….10 5.3.L’algorithme du Kangourou……………………………………….11 5.3.1-Procédure de descente……………………………………….12 5.3.2-Procédure de saut……………………………………………12 5.4.Explication…………………………………………………...……14 5.5.Les paramètres de l’algorithme……………………………………14 5.6.Avantages………………………………………………………….15 6.Exemple de la méthode………………………………………………..15 Conclusion……………………………………………………………….17 Bibliographie…………………………………………………………….18

Liste des figures Figure1 :Les différentes catégories de méthode………………………….4 Figure2 :Espace de recherche et voisinage………………………….……9 Figure3 :La descente pour trouver un minimum local…………………..10 Figure4 :La recherche d'un minimum local……………………..………11 Figure5 : Utilisation des stratégies de sélection de paramètres………....13 Figure6 :Les composants d'une porte Peugeot 106………………..……15

Page 3: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

2

Introduction

L'optimisation combinatoire est une voie d'études importante en recherche opérationnelle, en mathématiques discrètes et en informatique. Typiquement, les problèmes d'optimisation combinatoire sont faciles à définir mais difficiles à résoudre. En effet, la plupart de ces problèmes appartiennent à la classe des problèmes NP-difficiles et ne possèdent donc pas à ce jour de solution algorithmique efficace.

Pour la résolution des problèmes d’optimisation combinatoire de nombreuses méthodes ont été développées en Recherche Opérationnelle (RO) et en Intelligence Artificielle (IA) afin de résoudre ces problèmes. Ces méthodes peuvent être classées en deux grandes catégories :

- Les méthodes exactes (complètes) capables de trouver la solution optimale si elle existe, - Les méthodes approchées (incomplètes) qui perdent la complétude afin de gagner en efficacité.

Certaines méthodes ont permis de trouver des résultats optimaux pour des problèmes de taille raisonnable, mais comme le temps de calcul nécessaire pour trouver une solution risque de croître de façon exponentielle avec la taille du problème, les méthodes exactes rencontrent des difficultés dans le cas de problèmes de taille importante, mais les méthodes approchées ont prouvé leur efficacité dans ce domaine et de trouver des solutions pour des problèmes de grande taille. Depuis une trentaine d’années une nouvelle génération de méthodes puissantes est apparue et qui s’appelle « Métaheuristiques ».

1. Définition Les métaheuristiques sont une nouvelle génération de méthodes approchées puissantes et générales, qui sont constituées d’un ensemble de concepts fondamentaux et qui permettent d'aider à la conception des méthodes heuristiques pour un problème d'optimisation, ainsi les métaheuristiques sont adaptables et applicables à une large classe de problèmes.

Grâce à ces métaheuristiques, on peut proposer aujourd'hui des solutions approchées pour des problèmes d'optimisation classiques de plus grande taille et pour de très nombreuses applications qu'il était impossible de traiter auparavant, comme on constate, depuis ces dernières années, que l'intérêt porté aux métaheuristiques augmente continuellement en recherche opérationnelle et en intelligence artificielle. [NET]

1.1. Propriétés des métaheuristiques On peut résumer les différentes propriétés des métaheuristiques dans les points suivants: - Les métaheuristiques sont des stratégies qui permettent de guider la recherche à une solution optimale. - Le but visé par les métaheuristiques est d’explorer l’espace de recherche efficacement afin de déterminer des solutions (presque) optimales. - Les techniques qui constituent des algorithmes de type métaheuristique vont de la simple procédure de recherche locale à des processus d’apprentissage complexes. - Les métaheuristiques sont en général non déterministes et ne donnent aucune garantie d’optimalité. - Les métaheuristiques peuvent contenir des mécanismes qui permettent d’éviter d’être bloqué dans des régions de l’espace de recherche. - Les concepts de base des métaheuristiques peuvent être décrits de manière abstraite.

Page 4: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

3

- Les métaheuristiques peuvent faire appel à des heuristiques qui tiennent compte de la spécificité du problème traité, mais ces heuristiques sont contrôlées par une stratégie de niveau supérieur. - Les métaheuristiques peuvent faire usage de l’expérience accumulée durant la recherche de l’optimum, pour mieux guider la suite du processus de recherche.

1.2.Classification

On peut classifier les métaheuristiques selon plusieurs façons l’une de ces façons est de distinguer celles qui travaillent avec une population de solutions de celles qui ne manipulent qu’une seule solution à la fois. Les méthodes qui tentent itérativement d’améliorer une solution sont appelées méthodes de recherche locale ou méthodes de trajectoire par exemple on a : la descente, la méthode Tabou, le Recuit Simulé, Colonies de Fourmies, la recherche à Voisinages Variables, et autres. Ces méthodes construisent une trajectoire dans l’espace des solutions en tentant de se diriger vers des solutions optimales. Les méthodes qui travaillent avec une population de solutions explorent l’espace de recherche et tentent à trouver des solutions approchées et parmi ces méthodes on a les algorithmes génétiques, les algorithmes mémétiques, la recherche dispersée, etc.Etant donnée l'importance de ces problèmes, de nombreuses méthodes de résolution ont été développées.

Ces méthodes peuvent être classées sommairement en deux grandes catégories :

1.2.1- Les méthodes exactes (optimales) : Parmi les méthodes exactes, on trouve la plupart des méthodes traditionnelles (développées depuis une trentaine d'années) telles les techniques de séparation et évaluation progressive (SEP) ou les algorithmes avec retour arrière. Les méthodes exactes ont permis de trouver des solutions optimales pour des problèmes de taille raisonnable. Les méthodes exactes rencontrent généralement des difficultés face aux applications de taille importante.

1.2.2 -Les méthodes approchées (heuristiques) :

Elles sont généralement utilisées quand les méthodes optimales ne permettent pas de résoudre le problème en un temps acceptable. Elles constituent une alternative très intéressante pour traiter les problèmes d'optimisation de grande taille si l'optimalité n'est pas primordiale. On peut citer les méthodes gloutonnes et l'amélioration itérative.

Page 5: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

4

2006] BELKADI[ méthodes: Les différentes catégories de 1 ureFig

Les Méthodes de Résolution

Méthodes

Approchées ou Heuristiques

Algorithmes

Génétiques

AG

Recherche Tabou

RT

Recuit Simulé

RS

Systèmes

de Fourmis

SF

Méthode Kangourou MK

Algorithmes à Seuil

Méthode de Seuil

Tabou

Réseaux

de Neurones

RN

Heuristique

d’Efe

Heuristique Simple (HRS) ou de

Regroupement

Heuristique

de

Benhamamouche

Heuristiques

de

Chen et Chern

Méthode de

de Descente

Stochastique

Heuristiques classiques

Méthodes par

recherche arborescente

ou Procédures par

Séparation

et Évaluation (PSE)

(Branch and Bound)

Méthodes basées

sur

La Théorie des Graphes

Méthodes

Par

Linéarisation

Méthodes

Exactes ou Optimales

Méta-Heuristiques

Page 6: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

5

2. Descente stochastique La recherche locale, appelée aussi la descente stochastique, amélioration itérative ou Hill Climbing, représente une classe de méthodes heuristiques très anciennes (1956). Traditionnellement, la recherche locale constitue une arme redoutable pour attaquer des problèmes réputés très difficiles tels que le voyageur de commerce et la satisfaction des clauses, Contrairement à l'approche de construction, la recherche locale manipule des configurations complètes durant la recherche. Une méthode de recherche locale est un processus itératif fondé sur deux éléments essentiels un voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à :

1. Débuter avec une configuration quelconque s de V, 2. Choisir un voisin s’ de s tel que H (s’) < H(s) et remplacer s par s’ et à répéter 2) jusqu'à ce que pour tout voisin s’ de s, H (s’)> H(s).

Cette procédure fait intervenir à chaque itération le choix d’un voisin qui améliore strictement la configuration courante. Plusieurs possibilités peuvent être envisagées pour effectuer ce choix. Il est possible d'énumérer les voisins jusqu'à ce qu'on en découvre un qui améliore strictement (première amélioration). On peut également rechercher le meilleur voisin (meilleure amélioration). Cette dernière solution peut sembler plus coûteuse, mais le voisin découvert sera en général de meilleure qualité.

3. De plus, l'utilisation d'une structure de données appropriée peut souvent permettre de trouver directement ce meilleur voisin.

Comme l'espace des solutions est fini, cette procédure de descente s'arrête toujours, et la dernière configuration trouvée ne possède pas de voisin strictement meilleur qu'elle-même. Autrement dit, la recherche locale retourne toujours un optimum local. L'avantage principal de cette méthode réside dans sa grande simplicité et sa rapidité. Mais les solutions produites sont souvent de qualité médiocre et de coût très supérieur au coût optimal. Pour remédier à ce problème, la solution la plus simple est la méthode de relance aléatoire qui consiste à générer une nouvelle configuration de départ de façon aléatoire et à recommencer une descente. On remarque cependant que cette solution ne tire aucun profit des optima locaux déjà découverts. Une autre solution consiste à accepter des voisins de même performance que la configuration courante. Cette approche permet à la recherche de se déplacer sur les plateaux, mais n'est pas suffisante pour ressortir de tous les optima locaux. La recherche locale est à la base des métaheuristiques comme la méthode Tabou et des méthodes hybrides. Notons enfin qu’on trouve également l’idée de recherche locale dans le célèbre algorithme du simplexe pour la programmation linéaire.

Page 7: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

6

2.1. Schéma général de la descente stochastique : H : la fonction objective Best : la meilleure solution rencontrée V : le voisinage Engendrer une configuration initiale Y Best := Y ; % best est la meilleur solution rencontrés Tant que Best n’est pas un optimum local, répéter Choisir y dans V(Best) tel que H(Y) < H(Best) Best := Y Fin Retourner Best 2.2. Algorithmes basés sur la descente aléatoire : La plupart des métaheuristiques à base de solution unique sont des améliorations de la méthode de descente aléatoire. Les plus simples sont des variantes de la descente aléatoire répétée, qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de recherche, et la méthode du Kangourou, qui sera présentée plus loin. 2.3. Méthode de Descente Aléatoire répétée : Dans une descente aléatoire répétée, un seul point est tiré de façon aléatoire, puis utilisé pour démarrer une optimisation locale. Un élément notable de cette procédure est que le point initial ainsi obtenu peut être très éloigné de l’optimum global. Une amélioration possible consiste à tirer aléatoirement plusieurs points, et à choisir le meilleur pour démarrer l’optimisation locale, en évitant ainsi d’intensifier la recherche dans les régions peu prometteuses. La méthode décrite dans l’algorithme qui suit utilise une population de points initiaux, qu’elle met à jour avec de nouveaux points tirés de manière aléatoire après chaque optimisation locale. Le meilleur point de cette population est utilisé pour démarrer une descente aléatoire, après qu.il ait été éliminé de la population.

Page 8: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

7

L’algorithme de la Descente aléatoire répétée à base de population de points initiaux est comme suit :

L’algorithme ci-dessus peut être vu comme une répétition de deux étapes : Une étape d’exploration, qui consiste à construire des points par échantillonnage aléatoire dans l’espace de recherche, et une étape d’exploitation, dans laquelle on démarre une descente à partir du meilleur point obtenu au cours des explorations précédentes. Dans l’étape exploratoire, nous utiliserons la stratégie d’initialisation (SI), ce qui permettra de sélectionner un sous-ensemble de paramètres intéressants. On utilisera ensuite la stratégie (SM) avec la mutation de descente, pour intensifier la recherche dans l’espace des paramètres sélectionnés lors de l’exploration.

3. Evolution de descente stochastique : le recuit simulé [GOURGAND ET AL , 2003] La méthode du recuit simulé s'inspire du processus du recuit physique. Ce processus utilisé en métallurgie pour améliorer la qualité d'un solide cherche un état d'énergie minimale qui correspond à une structure stable du solide. En partant d'une haute température à laquelle le solide est devenu liquide, la phase de refroidissement conduit la matière liquide à retrouver sa forme solide par une diminution progressive de la température. Chaque température est maintenue jusqu'à ce que la matière trouve un équilibre thermodynamique. Quand la température tend vers zéro, seules les transitions d'un état à un état d'énergie plus faible sont possibles. Les origines du recuit simulé remontent aux expériences réalisées par Metropolis et al. Dans les années 50 pour simuler l'évolution d'un tel processus de recuit physique. Metropolis et al utilisent une méthode stochastique pour générer une suite d'états successifs du système en partant d'un état initial donné. Tout nouvel état est obtenu en faisant subir un déplacement (une perturbation) aléatoire à un atome quelconque.

Page 9: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

8

4. Du recuit simulé à l’algorithme de kangourou [GOURGAND ET AL , 2003] La première idée consiste à utiliser un "recuit à température constante", c'est à dire que l'on fixe la température T de sorte que l'on accepte un certain nombre de transitions défavorables, mais pas trop. On sait, dans ces conditions, quelle est la probabilité stationnaire, sous les hypothèses d'accessibilité, homogénéité et symétrie Le choix de T conditionne évidement la qualité de concentration de la probabilité stationnaire au voisinage des états optimaux. Parmi ceux-ci, l'algorithme le plus simple est celui de la descente stochastique, dont, bien sûr, la convergence n'est pas assurée, contrairement au cas T>0, les états ne communiquant pas nécessairement. Par exemple, on peut effectuer des descentes stochastiques successives, c'est-à-dire qu'à l'issue d'une descente stochastique, lorsque l'état optimal actuel est resté de même coût durant un temps trop long, on repart d'un état initial aléatoire, pour une autre descente stochastique Analysons le comportement des algorithmes du recuit. Dans beaucoup de situations, il s'avère que la descente stochastique, si elle ne garantit pas l'obtention de l'optimum, conduit à un état d'énergie proche du minimum, et en un temps plus court que le recuit simulé à température non nulle. Lorsque le cardinal des états possibles est très grand devant le nombre de tirages aléatoires que l'on a le temps de faire, c'est donc la descente stochastique qui semble être la meilleure méthode. D'ailleurs, quand on examine une trajectoire d'un algorithme classique du recuit, on constate généralement deux phases : dans une première, la chute de la fonction à minimiser est rapide, et le "record" est battu à intervalles proches, puis, dans une deuxième, la descente est lente et des intervalles de plus en plus longs séparent deux instants où s'améliore le record. Or, dans un recuit classique, c'est justement dans la première phase que l'on va accepter le plus de transitions défavorables, alors que c'est plutôt dans la seconde que ce serait nécessaire, pour sortir d'un minimum local. La démonstration du théorème de Hajek repose sur la divergence d'une série, or il n'est pas question de laisser l'algorithme de Metropolis se dérouler indéfiniment, et l'argument permettant d'assurer que la chaîne de Markov construite finira bien par stationner en un optimum, après avoir franchi les barrières séparant éventuellement la vallée où se trouve l'état actuel de la vallée contenant un optimum, reposant sur l'infini, ne tient plus.

Page 10: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

5. La méthode Kangourou

La méthode Kangourou est une technique d’approximation fondée sur la descente stochastique qui consiste à faire une descente aléatoire à partir l’espace de recherche.

Elle a été proposée par Gérard une stratégie très différente de recherche

La descente stochastique n’est en fait qu’un cas particulier de l’algorithme du kangourou (cas où le nombre de sauts est nul) [BELKADI

5.1. Notion de voisinage

:EFINITIOND Soit X l'ensemble des configurations admissibles d'un problème, on appelle voisinage toute application N : X →→→→ 2X. On appelle mécanisme d'exploration du voisinage toute procédure qui précise comment la recherche passe d'une configuration configuration s est un optimum (minimum) local par rapport au voisinageconfiguration s’ ∈∈∈∈ N(s). [HAO

ureFig

1 Gérard FLEURY : Maître de conférences à l'Université Blaise Pascal,

sur l'Enseignement des Mathématiques). Membre du laboratoire de Mathématiques, ses recherches portent sur les probabilités numériques et leur utilisation en ingénierie.

La méthode KANGOUROU

La méthode Kangourou:

une technique d’approximation fondée sur la descente stochastique qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans

Gérard Fleury1 en 1993. Inspiré par la méthode du recuit simulé, mais avec une stratégie très différente de recherche [SEBRENCU ET AL , 2007].

chastique n’est en fait qu’un cas particulier de l’algorithme du kangourou (cas où le BELKADI 2006].

:

l'ensemble des configurations admissibles d'un problème, on appelle voisinage toute . On appelle mécanisme d'exploration du voisinage toute procédure qui

précise comment la recherche passe d'une configuration s ∈∈∈∈ X à une configuratioest un optimum (minimum) local par rapport au voisinage N

ET AL ., 1999]

: Espace de recherche et voisinage 2 ure

Maître de conférences à l'Université Blaise Pascal, Gérard Fleury est directeur de l'IREM (Institut de recherche

sur l'Enseignement des Mathématiques). Membre du laboratoire de Mathématiques, ses recherches portent sur les probabilités numériques et leur utilisation en ingénierie.

9

une technique d’approximation fondée sur la descente stochastique de plusieurs points choisis de façon aléatoire dans

Inspiré par la méthode du recuit simulé, mais avec

chastique n’est en fait qu’un cas particulier de l’algorithme du kangourou (cas où le

l'ensemble des configurations admissibles d'un problème, on appelle voisinage toute . On appelle mécanisme d'exploration du voisinage toute procédure qui

à une configuration s’ ∈∈∈∈ N(s). Une si f(s) ≤≤≤≤ f(s’) pour toute

Gérard Fleury est directeur de l'IREM (Institut de recherche

sur l'Enseignement des Mathématiques). Membre du laboratoire de Mathématiques, ses recherches portent sur les probabilités

Page 11: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

5.2. Principe [DUTA,2006]

La méthode est un algorithme itératif qui minimise une fonction objectif explore l'espace des solutions dans le voisinage solution voisine u* de la solution courante problème qui peut être aussi difficile que le problème initial.

: La descente pour trouver un minimum local 3 ureFig

Soit u0 une solution admissible du problème d'optimisation. Par des déplacements successifs l'algorithme de Kangourou cherche une solution qui minimise la fonction solution courante. Si la solution une nouvelle solution est cherchée dans le même voisinage. Si la solution la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre d'itérations un minimum local u*

La méthode KANGOUROU

La méthode est un algorithme itératif qui minimise une fonction objectif f(u)explore l'espace des solutions dans le voisinage N(u) en choisissant à chaque fois la meilleure

de la solution courante u. La recherche de la meilleure solution voisine est un problème qui peut être aussi difficile que le problème initial.

: La descente pour trouver un minimum local

une solution admissible du problème d'optimisation. Par des déplacements successifs l'algorithme de Kangourou cherche une solution qui minimise la fonction f dans un voisinage de la solution courante. Si la solution ui est meilleure que la solution précédente, elle est mémorisée et une nouvelle solution est cherchée dans le même voisinage. Si la solution ui la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre

u* est trouvé.

10

f(u). L’algorithme en choisissant à chaque fois la meilleure

illeure solution voisine est un

: La descente pour trouver un minimum local

une solution admissible du problème d'optimisation. Par des déplacements successifs dans un voisinage de la

ente, elle est mémorisée et n'est pas meilleure que

la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre

Page 12: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

Ce minimum est plus ou moins proche du minimum global (figure 3).

Dans le cas idéal le minimum local

4 ureFig

5.3. L’algorithme du Kangourou

Notations :

x : état courant. x* : meilleur état rencontré à l'itération courante. C : compteur d'itérations entre de

A : le nombre maximal d'itérations sans l'amélioration de la solution courante

f : la fonction objectif.

La méthode KANGOUROU

Ce minimum est plus ou moins proche du minimum global (figure 3).

Dans le cas idéal le minimum local u* est le même avec le minimum global

: La recherche d'un minimum local dans 4la solution courante le voisinage de

L’algorithme du Kangourou : [TALBI, 2004]

encontré à l'itération courante.

compteur d'itérations entre deux améliorations de la solution.

le nombre maximal d'itérations sans l'amélioration de la solution courante

11

est le même avec le minimum global ug.

: La recherche d'un minimum local dans

le nombre maximal d'itérations sans l'amélioration de la solution courante.

Page 13: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

12

: Procédure de descente-.3.15

Répéter ns fois :

1 : Appliquer la mutation ηηηη2 à la solution courante :

x1 ← ηηηη2(x) ;

salor )= f (x)1f (x Si : 2

aller en 5 ;

alors )*) < f (x1f (x Si : 3

Mettre à jour la meilleure solution rencontrée : x*← x1 ;

4 : Réinitialiser le compteur de stationnement C ← 0 ;

5 : Mettre à jour la solution courante : x ← x1 ;

6 : Incrémenter le compteur de stationnement : C ← C+1

: Procédure de saut -.3.25

1 : Appliquer la mutation ηηηη1 à la solution courante : x1← ηηηη1(x) ;

alors ) > f(x)1f (x Si : 2

aller en 5 ;

alors ) <f(x)1f (x Si : 3

C← 0 ;

4 : x ← x1 ;

5 : C ← C+1 ;

Les mutations ηηηη1 et ηηηη2 ont été choisies comme suit :

ηηηη1: mutation uniforme locale. ηηηη1 (xi)= xi ++++(2 γγγγ −−−−1)p, où p est obtenu à partir d’une distribution

uniforme sur [0,1] et p est un nombre réel (0 < < < < p<<<<1), souvent appelé taille maximum du pas. Cette mutation peut s’interpréter comme un déplacement vers un point choisi dans un N-cube centré en x et de côté 2p .

ηηηη2: mutation uniforme globale. ηηηη2(xi)= γγγγ, où γγγγ est obtenu à partir d’une distribution uniforme sur

[0,1]. La mutation ηηηη2 s’interprète comme un déplacement aléatoire dans le N-cube [0,1]N.

La mutation ηηηη2 vérifie bien la propriété d’accessibilité, puisqu’à partir d’un point quelconque de

l’espace de recherche [0,1]N, il est possible d’atteindre tout autre point de cet espace.

Les deux mutations ηηηη1 et ηηηη2 sont utilisées avec des objectifs différents.

Page 14: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

ηηηη1 permet de faire un déplacement local (c’estcourante), alors que ηηηη2 est utilisée pour effectuer un saut vers un autre d’un optimum local. La figure 5 présente les stratégies de sélection de paramètres utilisées avec l’algorithme du Kangourou. Pour intensifier la recherche dans l’espace des paramètres sélectionnés, tout en donnant la possibilité aux autres d’être sélectionnés eux aussi, une stratégie de type (SM) est utilisée avec la mutation de descente η1. Avec une telle stratégie, seuls les paramètres ayant permis d’améliorer la fonction objectif à une itération donnée peuvent être ajoutésélectionnés. A la fin de chaque descente, et avant d’effectuer un saut, une stratégie d’élimination aléatoire en arrière (SE) est appliquée à la solution courante, afin d’éliminer les paramètres inutiles. Ensuite, les sauts sont effectués en utilisant une stratégie d’initialisation restreinte (SIR)mutation de saut ηηηη2, ce qui permet d’éviter l’augmentation du nombre deLa stratégie (SC) est utilisée à chaque comparaison entre

Figure 5 : Utilisation des stratégies de sélection de paramètres au sein de

La méthode KANGOUROU

permet de faire un déplacement local (c’est-à-dire, vers un point très proche de laest utilisée pour effectuer un saut vers un autre bassin

présente les stratégies de sélection de paramètres utilisées avec l’algorithme du Kangourou. Pour intensifier la recherche dans l’espace des paramètres sélectionnés, tout en donnant

ilité aux autres d’être sélectionnés eux aussi, une stratégie de type (SM) est utilisée avec la Avec une telle stratégie, seuls les paramètres ayant permis d’améliorer la

fonction objectif à une itération donnée peuvent être ajoutés à l’ensemble des paramètres sélectionnés. A la fin de chaque descente, et avant d’effectuer un saut, une stratégie d’élimination aléatoire en arrière (SE) est appliquée à la solution courante, afin d’éliminer les paramètres inutiles.

auts sont effectués en utilisant une stratégie d’initialisation restreinte (SIR), ce qui permet d’éviter l’augmentation du nombre de paramètres durant les sauts.

La stratégie (SC) est utilisée à chaque comparaison entre solutions.

: Utilisation des stratégies de sélection de paramètres au sein de l’algorithme du Kangourou.

13

dire, vers un point très proche de la solution d’attraction, pour sortir

présente les stratégies de sélection de paramètres utilisées avec l’algorithme du Kangourou. Pour intensifier la recherche dans l’espace des paramètres sélectionnés, tout en donnant

ilité aux autres d’être sélectionnés eux aussi, une stratégie de type (SM) est utilisée avec la Avec une telle stratégie, seuls les paramètres ayant permis d’améliorer la

s à l’ensemble des paramètres sélectionnés. A la fin de chaque descente, et avant d’effectuer un saut, une stratégie d’élimination aléatoire en arrière (SE) est appliquée à la solution courante, afin d’éliminer les paramètres inutiles.

auts sont effectués en utilisant une stratégie d’initialisation restreinte (SIR) avec la paramètres durant les sauts.

: Utilisation des stratégies de sélection de paramètres au sein de

Page 15: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

14

: est défini comme suit Kangourou L’algorithme

1 : Initialiser la solution courante : x ← x0 ;

2 : Initialiser la meilleure solution rencontrée : x*←x0 ;

// *une meilleure solution x* est recherché afin de minimiser la fonction objectif f *//

3 : Initialiser le compteur de stationnement : C← 1 ;

alors C < A Si: 4

// *descente stochastique *//

exécuter la procédure de descente : x ← descente (x, C) ;

Sinon

exécuter la procédure de saut : x ← saut (x) ;

alors *x est meilleure que x Si: 5

x* ← x ;

alorsle critère d’arrêt est atteint Si: 6

aller en 4 ;

Sinon

fin de l’algorithme.

5.4. Explication [TALBI, 2004] Après une descente aléatoire avec une mutation ηηηη1 , si la valeur de la fonction objectif n’a pas changé depuis A itérations, plusieurs sauts aléatoires consécutifs sont effectués en utilisant une mutation ηηηη2.

La mutation ηηηη2 n’est pas nécessairement la même que ηηηη1 , mais doit respecter la propriété d’accessibilité, c’est-à-dire que pour tout couple de points (x, y) de l’espace des paramètres, il doit être possible d’atteindre y à partir de x, en utilisant une suite finie de mutations de type ηηηη2 . Cette propriété est suffisante pour garantir la convergence asymptotique de l’algorithme.

Les deux mutations ηηηη1 et ηηηη2 sont utilisées avec des objectifs différents. ηηηη1 permet de faire un déplacement local (c’est-à-dire, vers un point très proche de la solution courante), alors que ηηηη2 est utilisée pour effectuer un saut vers un autre bassin d’attraction, pour sortir d’un optimum local.

La première et la deuxième mutation ne sont pas nécessairement les mêmes, mais doivent respecter la propriété d’accessibilité de l’algorithme.

5.5. Les paramètres :

Les paramètres de l’algorithme du kangourou sont : • le compteur de stationnement,

• le nombre d’itérations, • la procédure de descente,

• la procédure de saut • le critère d’arrêt.

Page 16: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

5.6.Avantages :

Elle présente l’avantage de ne pas perdre l’information relative aux optima locaux rencontrés. Les résultats obtenus par la méthode du kangourou sont de bonnes qualités avec un temps de calcul modéré. Le fait d’effectuer des sauts permet à l’algorithme du kangourou de sortir d’une vallée c’est à dire d’un minimum local en sautant les barrières de potent

6. Exemple de la méthode Kangourou

Le désassemblage d'une porte du modèle Peugeot 106 [

Dans sa thèse, [DUTA ,2006] a appliqué l'algorithme du kangourou sur désassemblage d'une porte du modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés.

4

6 Commande manuelle de vitre

6 ureFig

La méthode KANGOUROU

Elle présente l’avantage de ne pas perdre l’information relative aux optima locaux rencontrés. résultats obtenus par la méthode du kangourou sont de bonnes qualités avec un temps de calcul

modéré. Le fait d’effectuer des sauts permet à l’algorithme du kangourou de sortir d’une vallée c’est à dire d’un minimum local en sautant les barrières de potentiel. [TALBI 2004]

Exemple de la méthode Kangourou [DUTA,2006]

]Le désassemblage d'une porte du modèle Peugeot 106

a appliqué l'algorithme du kangourou sur désassemblage d'une porte du modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés.

1 Paneau garni 2 Vide-poche 3 Accoudoir

Garniture d'absorbeur5 Absorbeur

Enjoliveur de poignée Commande manuelle de vitre

70 Vis torx 71 Clip de fixation

72 Agrafe 73 Ecrou

plastique 74 Vis torx 75 Agrafe

: Les composants d'une porte Peugeot 106 6

15

Elle présente l’avantage de ne pas perdre l’information relative aux optima locaux rencontrés. résultats obtenus par la méthode du kangourou sont de bonnes qualités avec un temps de calcul

modéré. Le fait d’effectuer des sauts permet à l’algorithme du kangourou de sortir d’une vallée c’est [TALBI 2004]

a appliqué l'algorithme du kangourou sur désassemblage d'une porte du modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés.

Vis torxClip de fixation

AgrafeEcrou

plastiqueVis torxAgrafe

: Les composants d'une porte Peugeot 106

Page 17: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

16

Le tableau représentant Les opérations principales de désassemblage de la porte est comme suit :

Nous avons ignoré les opérations annexes comme la prise ou le positionnement d'un outil. -Hypothèses : · Il s'agit d'un seul type de produit (Peugeot 106) · La période de planification est H = une semaine · Le nombre de produits de même type à désassembler est constant S=40 · La fonction à optimiser est une fonction d'équilibrage F. · Les temps de désassemblage pour les autres composants sont connus. · Le temps de cycle est connu et égale à 3600 s pour le désassemblage de la voiture entière. · Il y deux postes mixtes où le désassemblage de la porte est réalisé L'exécution de l'algorithme du [Duta, 2006] donne la valeur minimale de la fonction

F de 260 s, ce qui est un bon résultat.

Page 18: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

17

Conclusion

La méthode Kangourou offre une solution par une descente stochastique et une transition dans le

voisinage de l'état actuel pour trouver une meilleure solution de la solution courante. La méthode

donne un optimum local dans un temps acceptable, basé sur le recuit simulé, il permet l’étude de

problèmes à forte combinatoire.[GOURGAND et al., 2003]

Contrairement à la recherche tabou et aux algorithmes évolutionnistes, la méta-heuristique

« méthode Kangourou » n’a besoin que d’une seule évaluation du critère de performance à chaque

itération, ce qui est intéressant du point de vue du temps de calcul.

L’intérêt de cette méthode est qu’elle est facile à mettre en œuvre, elle peut être couplée sans difficulté

avec un modèle pour l’évaluation des performances et on dispose a tout instant d’une solution

réalisable.

L’algorithme du kangourou a beaucoup d’avantages car il permet la recherche globale ainsi que le

réglage de paramètres du recuit simulé. Il présente plusieurs inconvénients comme le nombre de

stationnements et de sauts nécessaire pour la recherche global.

Page 19: Faculté des Sciences Département d'Informatique · voisinage V et une procédure exploitant le voisinage. Plus précisément, elle consiste à : 1. Débuter avec une configuration

La méthode KANGOUROU

18

Références Bibliographiques

[SEBRENCU ET AL , 2007]

Adrian SERBENCU, Viorel MINZU, Adriana SERBENCU ; « An ant colony system based metaheuristic for solving single machine scheduling problem » ; the annals of “dunarea de jos”

university of galati fascicle III, 2007 P19-24

[BELKADI , 2006] BELKADI K. « Les méta-heuristiques » Cours, Usto ; 2006

[DUTA ,2006 ] Luminita DUTA ; « Contribution A L'etude De La Conduite Des Systemes De Desassemblage » ; thèse de doctorat en Automatique et Informatique; Université Franche-Comte Du Besancon ; soutenue le 22 septembre 2006

[GOURGAND ET AL , 2003] M. Gourgand, N. Grangeon et S.Norre ; « Problemes D’ordonnancement Dans Les Systèmes De Production De Type Flow-Shop Hybride En Contexte Déterministe » ; J3eA, Journal sur l’enseignement des sciences et technologies de l’information et des systèmes ; EDP Sciences, 2003

[HAO ET AL , 1999 ] Jin-Kao HAO, Philippe GALINIER, Michel HABIB ; « Méthaheuristiques pour l’optimisation combinatoire et l’affectation sous contraintes »; Revue d’Intelligence Artificielle ; 1999

[TALBI , 2004] El-Djillali TALBI ; « Sélection et réglage de paramètres pour l’optimisation de logiciels d’ordonnancement industriel » ; Institut National Polytechnique de Toulouse Ecole Doctorale Systèmes ; Spécialité : Informatique Industrielle Soutenu le 12 novembre 2004

[NET] http://fr.wikipedia.org/wiki/Recherche_kangourou