approches de l'intelligence artificielle pour la commande
TRANSCRIPT
Département d’Informatique
THESE
Présentée par :
SALEM Mohammed
Pour obtenir le diplôme de
DOCTORAT EN SCIENCESSpécialité :Informatique et Automatique
Thème
Approches de l’intelligenceartificielle pour la commande
robuste des systèmes nonlinéaires
Devant les membres du jury :
Président :Rapporteur :Examinateur :Examinateur :Examinateur :Examinateur :
Pr. B. YAGOUBIPr. M.F KHELFIPr. Y. LEBBAHPr. Z. AHMED FOITIHPr. A. LEHIRECHEDr. W. NOUIBAT
Professeur, Université d’Oran 1 Ahmed Ben BellaProfesseur, Université d’Oran 1 Ahmed Ben BellaProfesseur, Université d’Oran 1 Ahmed Ben BellaProfesseur, USTO-MBProfesseur, Université de Sidi-Bel-AbbesMaître de Conférences A, USTO-MB
–2014–
�o tho£e who emind me that the power i¢ in �elieving�o tho£e who are lighting my way when I felt forsaken
�o tho£e who were beside me through my doubt¢ and confusion�n my anguish and frustration¢
... and they still�o my little familly
�o my parent¢
Remerciements
« Oh, Voyageur !, les traces de tes pas sont le chemin.Il n’y a pas de chemin, le chemin se fait en marchant. »
Ces vers du poète Antonio Machado reflètent le mieux l’aboutissement de cette thèse qui n’était qu’une chimère
qui commençait à se concrétiser au passage des années.
En mettant les dernières retouches sur cet humble travail qui ne constitue qu’un pas dans un sentier parsemé
d’embûches et d’épines, je dois me rappeler des personnes qui ont participé de prés ou de loin pour que ce travail
voit le jour et qui m’ont soutenu et éclairé ma lanterne.
C’est avec un grand plaisir que je remercie mon directeur de thèse, le Professeur Mohamed Fayçal Khelfi.
Merci tout d’abord de m’avoir accepté en thèse et ensuite de m’avoir encadré pendant toutes ces interminables
années. Merci aussi pour votre patience, car il n’était pas toujours facile de diriger quelqu’un d’opiniâtre.J’ai
été extrêmement sensible à ses qualités humaines d’écoute et de compréhension tout au long de ce travail.
Toute ma gratitude va au Professeur Belabbes Yagoubi Doyen de la Faculté des Sciences Exactes et Appli-
quées de l’Université d’Oran pour m’avoir fait l’honneur en acceptant de présider le jury, je l’avoue, il continue
de m’étonner par sa disponibilité pour être à l’écoute depuis que je l’ai eu comme enseignant.
Je remercie également le Professeur Yahia Lebbah de l’Université d’Oran et Dr Wahid Nouibat de l’USTO
pour l’honneur qu’ils m’ont fait en acceptant de juger ce modeste travail.
Une mention spéciale pour le Professeur Zoubir Ahmed-Fouatih de l’USTO pour ses qualités humaines et
scientifiques, je n’ai jamais douté qu’il accepte de juger ce travail.
Je remercie profondément le professeur Ahmed Lehireche de l’Université de Sidi-Bel-Abbes, que la volonté
de Dieu a fait qu’il était l’un de mes enseignants dans la graduation à l’Université de Sidi-Bel-Abbes, dans le
Magister et aujourd’hui en étant l’examinateur de cette thèse.
Je suis reconnaissant au Docteur Fatima Debbat de l’université de Mascara, pour ses conseils toujours
avisés. Je suis par ailleurs toujours impressionné par sa disponibilité incroyable.. . .
Mes remerciements vont également à toute l’équipe Geneura de l’Universidad de Granada et en particulier
le Professeur Juan Julian Merelo et Dr Antonio Mora pour le temps qu’ils m’ont consacré au cours de mon
stage. Surtout, je remercie J.J de m’avoir fait profiter de son immense culture et de sa hauteur de vue. Il m’a
beaucoup appris surtout pour les tests statistiques.
Pour ne pas sombrer dans la nostalgie, je vais m’arrêter là et présenter toutes mes excuses aux personnes
que je n’ai pas mentionnées par leur nom dans ces quelques lignes. . .
Pour conclure, un grand merci à ma femme qui a assuré le soutien affectif de ce travail doctoral et qui y
croyais toujours même lorsque j’étais au fond du désespoir. Je ne saurai jamais la remercier !
3
Résumé
La présente thèse est dédiée à l'application des techniques de l'intelligence computa-tionnelle a�n de palier aux limites de la commande sliding mode des systèmes non linéaires.En e�et, les réseaux de neurones à fonctions de bases radiales (RBF) sont utilisés pourestimer les paramètres du modèle dynamique et compenser les incertitudes.
Pour le développement d'un algorithme d'apprentissage des réseaux de neurones àbases radiales (RBF), nous avons opté en premier lieu pour les algorithme évolution-naires en considérant l'apprentissage d'un réseau de neurones RBF comme un problèmed'optimisation.
Pour y parvenir, nous avons amélioré deux algorithmes récents, l'algorithme d'opti-misation par colonie d'abeilles arti�cielles (ABC) et l'algorithme de l'optimisation baséesur la biogéographie (BBO) en les hybridant avec un modèle prédateur et proies (P&P)modi�é. Les deux algorithmes obtenus (PMBBO et ABC-PP) ont été validés par des testsstatistiques révélant ABC-PP comme le meilleur algorithme.
Bien que l'application de l'algorithme ABC-PP pour l'apprentissage des paramètresd'un pendule inversé dans une commande sliding mode ait donné de bons résultats, ellen'a pas pu satisfaire le test de robustesse (Perturbations et incertitudes).
Le deuxième algorithme développé est l'algorithme GAP-EKF qui est un algorithmed'apprentissage en ligne basé sur une stratégie de Growing and Pruning (GAP) pourcontrôler le nombre des neurones cachés (égal à 0 au début) et un �ltre de Kalman pourmodi�er les paramètres du réseau.
L'algorithme GAP-EKF est combiné à un contrôleur �ou dans une approche intel-ligente de commande slidng mode où GAP-EKF est utilisé pour calculer la commandeéquivalente tandis que la commande corrective est calculée par un contrôleur �ou.
L'approche proposée a été appliquée pour la commande d'un pendule inversé et ensuiteun robot manipulateur SCARA. Les résultats obtenus sont très satisfaisants même enprésence de perturbations et incertitudes.
Mots clés :Intelligence computationnelle, Commande sliding mode, Réseaux RBF, Colonie d'abeilles
arti�cielles, Optimisation basée sur la biogéographie, Commande PID, Prédateurs etproies, Apprentissage, Optimisation, Contrôleur �ou.
I
Abstract
Sliding mode control is a robust control structure for nonlinear systems ; it has twomajor drawbacks, the model dependency (mainly in presence of uncertainties and dis-turbances) and the chattering phenomena. Computational intelligence methods are oftenused to solve these problems.
To �gure out the problem of model dependency, Radial basis functions neural networks(RBF) are used to estimate the model parameters but a performing training algorithm isneeded.
In this thesis, we will design �rst, an evolutionary based training algorithm. To achievethat, two optimization algorithms are enhanced ; Biogeography based optimization (BBO)and Arti�cial Bees Colony (ABC). The considered algorithms are combined with a mo-di�ed predator and prey model (P&P) to increase their diversi�cation. The obtainedalgorithms (PMBBO and ABC-PP) are validated and compared through a statisticaltests set where ABC-PP was the best one.
ABC-PP is used to train RBF neural network to design RBF based sliding modecontroller to control an inverted pendulum giving good results but not in presence ofdisturbances.
An online training algorithm (GAP-EKF) is then designed ; it is based on a growingand pruning strategy to add or delete nodes and an extended Kalman �lter (EKF) toadjust neural network parameters (weights, centers and widths). The online algorithmis integrated with fuzzy controller to design a Fuzzy-GAP-EKF sliding mode controlwhere GAP-EKF trained RBF is used to compute equivalent control and compensateuncertainties while the fuzzy controller outputs the sliding gain value to cancel chattering.
The resulted approach is applied to control an inverted pendulum and SCRA robotmanipulator. The obtained results are remarkable even with external disturbances anduncertainties.
Keywords :Learning algorithm, Optimization, RBF Neural networks, Sliding mode control, PID
control, Biogeography based optimization, Arti�cial bees colony, Predator and prey, Fuzzylogic.
II
Table des matières
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IAbstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IITable des matières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IIIListe des �gures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VIIIListe des tableaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XIListe des abréviations et symboles . . . . . . . . . . . . . . . . . . . . . . . . . . XIII
Introduction générale 11 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Contexte et problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Objectifs et contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3.1 Apprentissage des réseaux RBF par les algorithmes évolutionnaires 33.2 Apprentissage en ligne des réseaux de neurones RBF . . . . . . . . 4
4 Structure de la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1 Techniques de l'intelligence computationnelle et ses applications dans lacommande 71 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Réseaux de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 Neurone formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.2 Propriétés des réseaux de neurones . . . . . . . . . . . . . . . . . . 8
2.2.1 Apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . 82.2.2 Approximation parcimonieuse . . . . . . . . . . . . . . . . 9
2.3 Étapes de la conception d'un réseau de neurones . . . . . . . . . . . 102.3.1 Choix et préparation des échantillons . . . . . . . . . . . . 102.3.2 Élaboration de la structure du réseau . . . . . . . . . . . . 102.3.3 Apprentissage du réseau . . . . . . . . . . . . . . . . . . . 102.3.4 Validation et Test . . . . . . . . . . . . . . . . . . . . . . 11
2.4 Réseaux de neurones à fonctions de bases radiales . . . . . . . . . . 112.4.1 Apprentissage des réseaux de neurones RBF . . . . . . . . 122.4.2 Algorithmes d'apprentissage des réseaux RBF . . . . . . . 13
3 Logique �oue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.1 Généralités sur la logique �oue . . . . . . . . . . . . . . . . . . . . . 15
3.1.1 Variables linguistiques et ensembles �ous . . . . . . . . . . 153.1.2 Sous-ensembles �ous . . . . . . . . . . . . . . . . . . . . . 163.1.3 Fonction d'appartenance . . . . . . . . . . . . . . . . . . . 163.1.4 Base de règles �oues . . . . . . . . . . . . . . . . . . . . . 17
3.2 Système d'inférence �oue . . . . . . . . . . . . . . . . . . . . . . . . 173.2.1 Fuzzi�cation . . . . . . . . . . . . . . . . . . . . . . . . . 18
III
Table des matières
3.2.2 Inférence �oue . . . . . . . . . . . . . . . . . . . . . . . . 183.2.3 Défuzzi�cation . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Contrôleurs �ous . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.3.1 Méthode de Mamdani . . . . . . . . . . . . . . . . . . . . 193.3.2 Méthode de Takagi-Sugeno . . . . . . . . . . . . . . . . . 20
4 Optimisation et Algorithmes évolutionnaires . . . . . . . . . . . . . . . . . 204.1 Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.1 Dé�nition . . . . . . . . . . . . . . . . . . . . . . . . . . . 204.1.2 Problème d'optimisation . . . . . . . . . . . . . . . . . . . 20
4.2 Méthodes d'optimisation . . . . . . . . . . . . . . . . . . . . . . . . 224.2.1 Méthodes exactes . . . . . . . . . . . . . . . . . . . . . . . 224.2.2 Méthodes approchées . . . . . . . . . . . . . . . . . . . . . 234.2.3 Méthodes à base de voisinage . . . . . . . . . . . . . . . . 234.2.4 Méthodes à base de population . . . . . . . . . . . . . . . 244.2.5 Méthodes hybrides . . . . . . . . . . . . . . . . . . . . . . 24
5 Algorithmes évolutionnaires . . . . . . . . . . . . . . . . . . . . . . . . . . 255.1 Importance de la diversité . . . . . . . . . . . . . . . . . . . . . . . 255.2 Exploitation et exploration . . . . . . . . . . . . . . . . . . . . . . . 26
6 Commande des systèmes non linéaires . . . . . . . . . . . . . . . . . . . . . 276.1 Représentation des systèmes non-linéaires . . . . . . . . . . . . . . 276.2 Commande des systèmes . . . . . . . . . . . . . . . . . . . . . . . . 27
6.2.1 Commande proportionnelle, intégrale et dérivée . . . . . . 296.2.2 Commande sliding mode . . . . . . . . . . . . . . . . . . . 306.2.3 Limites de la commande sliding mode . . . . . . . . . . . 32
7 Intelligence computationnelle dans la commande sliding mode . . . . . . . 337.1 Application des réseaux de neurones dans la commande sliding mode 33
7.1.1 Architectures parallèles . . . . . . . . . . . . . . . . . . . 337.1.2 Réseaux de neurones pour l'adaptation des paramètres du
contrôleur . . . . . . . . . . . . . . . . . . . . . . . . . . . 367.2 Application de la logique �oue dans la commande sliding mode . . . 36
7.2.1 Approches indirectes . . . . . . . . . . . . . . . . . . . . . 367.2.2 Approches directes . . . . . . . . . . . . . . . . . . . . . . 38
7.3 Réglage des paramètres du contrôleur sliding mode avec les algo-rithmes génétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
7.4 Synthèse de l'utilisation des réseaux RBF pour la commande slidingmode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré 421 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 Optimisation basée sur la biogéographie . . . . . . . . . . . . . . . . . . . 43
2.1 Biogéographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.2 Optimisation et biogéographie . . . . . . . . . . . . . . . . . . . . . 44
2.2.1 Variable d'indice d'adéquation . . . . . . . . . . . . . . . . 452.2.2 Habitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.2.3 Population . . . . . . . . . . . . . . . . . . . . . . . . . . 452.2.4 Indice d'adéquation de l'habitat . . . . . . . . . . . . . . . 452.2.5 Taux d'immigration . . . . . . . . . . . . . . . . . . . . . 45
IV
Table des matières
2.2.6 Taux d'émigration . . . . . . . . . . . . . . . . . . . . . . 452.3 Étapes de l'optimisation basée sur la biogéographie . . . . . . . . . 46
2.3.1 Initialisation . . . . . . . . . . . . . . . . . . . . . . . . . 462.3.2 Évaluation de la fonction HSI . . . . . . . . . . . . . . . . 472.3.3 Sélection . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.3.4 Opérateur de migration . . . . . . . . . . . . . . . . . . . 482.3.5 Opérateur de mutation . . . . . . . . . . . . . . . . . . . . 49
3 Modèle Prédateur et Proies . . . . . . . . . . . . . . . . . . . . . . . . . . 503.1 Origine du modèle prédateur et proies . . . . . . . . . . . . . . . . 503.2 Optimisation par le modèle prédateur et proies . . . . . . . . . . . . 50
4 Hybridation de l'algorithme BBO par le modèle prédateur et proies amélioré 514.1 Nouvel opérateur de migration . . . . . . . . . . . . . . . . . . . . . 524.2 Amélioration du modèle prédateur et proies . . . . . . . . . . . . . 52
5 Réglage d'un contrôleur PID par l'approche PMBBO . . . . . . . . . . . . 555.1 Choix des fonctions objectifs . . . . . . . . . . . . . . . . . . . . . . 55
5.1.1 Fonctions basées sur l'erreur . . . . . . . . . . . . . . . . . 555.1.2 Fonction globale . . . . . . . . . . . . . . . . . . . . . . . 56
5.2 Architecture d'optimisation adoptée . . . . . . . . . . . . . . . . . . 566 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.1 Application de l'algorithme PMBBO avec le système Masse-ressort-Amortisseur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2 Application de l'algorithme PMBBO avec le pendule inversé . . . . 606.3 Étude comparative de l'algorithme PMBBO . . . . . . . . . . . . . 61
7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3 Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré 651 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652 Optimisation par colonie d'abeilles arti�cielles . . . . . . . . . . . . . . . . 66
2.1 Intelligence bio-inspirée . . . . . . . . . . . . . . . . . . . . . . . . . 662.1.1 Auto-organisation . . . . . . . . . . . . . . . . . . . . . . 672.1.2 Division du travail . . . . . . . . . . . . . . . . . . . . . . 68
2.2 Modèle de comportement d'abeilles . . . . . . . . . . . . . . . . . . 682.2.1 Sources de nourriture . . . . . . . . . . . . . . . . . . . . . 682.2.2 Abeilles employées . . . . . . . . . . . . . . . . . . . . . . 682.2.3 Abeilles non employées . . . . . . . . . . . . . . . . . . . 69
2.3 Algorithme colonie d'abeilles arti�cielles . . . . . . . . . . . . . . . 702.4 Étapes de l'algorithme ABC . . . . . . . . . . . . . . . . . . . . . . 70
2.4.1 Phase des employées . . . . . . . . . . . . . . . . . . . . . 712.4.2 Phase des onlookers . . . . . . . . . . . . . . . . . . . . . 712.4.3 Phase des scouts . . . . . . . . . . . . . . . . . . . . . . . 72
2.5 Discussion sur l'algorithme ABC . . . . . . . . . . . . . . . . . . . 722.5.1 Avantages de l'algorithme ABC . . . . . . . . . . . . . . . 722.5.2 Limites de l'algorithme ABC . . . . . . . . . . . . . . . . 72
3 Colonie d'abeilles arti�cielles et prédateur et proies amélioré . . . . . . . . 734 Analyse statistique des algorithmes PMBBO et ABC-PP . . . . . . . . . . 74
4.1 Paramètres de l'expérimentation . . . . . . . . . . . . . . . . . . . . 754.2 Conditions d'utilisation des tests paramétriques . . . . . . . . . . . 774.3 Tests non-paramétriques . . . . . . . . . . . . . . . . . . . . . . . . 79
V
Table des matières
4.3.1 Comparaisons par paires : Test de Wilcoxon signed ranks . 814.3.2 Comparaison multiple avec une méthode de contrôle . . . 824.3.3 Procédures Post-hoc . . . . . . . . . . . . . . . . . . . . . 85
4.4 Estimation du contraste . . . . . . . . . . . . . . . . . . . . . . . . 925 Réglage d'un contrôleur PID par l'approche ABC-PP . . . . . . . . . . . . 936 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4 Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP 971 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 972 Apprentissage des réseaux RBF par les algorithmes évolutionnaires . . . . 98
2.1 Classi�cation des approches d'apprentissage . . . . . . . . . . . . . 982.2 Travaux antérieurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3 Approximation des fonctions par les réseaux RBF . . . . . . . . . . . . . . 1003.1 Approximation des fonctions . . . . . . . . . . . . . . . . . . . . . . 1003.2 Approximation des fonctions par les réseaux RBF . . . . . . . . . . 100
4 Approche d'apprentissage des réseaux RBF par l'algorithme ABC-PP . . . 1014.1 Analyse statistique de l'apprentissage des réseaux RBF par les al-
gorithmes évolutionnaires . . . . . . . . . . . . . . . . . . . . . . . 1024.1.1 Test de Wilcoxon signed ranks . . . . . . . . . . . . . . . 1054.1.2 Estimation du Contraste . . . . . . . . . . . . . . . . . . . 105
5 Commande sliding mode par l'approche RBF-ABC-PP . . . . . . . . . . . 1065.1 Architecture proposée . . . . . . . . . . . . . . . . . . . . . . . . . 1065.2 Résultats de simulation . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2.1 Apprentissage du réseau RBF . . . . . . . . . . . . . . . . 1075.2.2 Application à la commande sliding mode . . . . . . . . . . 1095.2.3 Test de robustesse . . . . . . . . . . . . . . . . . . . . . . 111
6 Analyse, critiques et motivations pour le chapitre suivant . . . . . . . . . . 114
5 Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF 1161 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1162 Approche GAP-EKF pour l'apprentissage des réseaux de neurones RBF . . 117
2.1 In�uence d'un neurone . . . . . . . . . . . . . . . . . . . . . . . . . 1182.2 Critère de croissance (Growing Criterion) . . . . . . . . . . . . . . . 1182.3 Ajustement des paramètres du réseau par l'algorithme EKF . . . . 1202.4 Critère d'élagage (Pruning Criterion) . . . . . . . . . . . . . . . . . 120
3 Approche GAP-EKF-Floue pour la commande sliding mode des systèmesnon linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1213.1 Commande Équivalente RBF-GAP-EKF . . . . . . . . . . . . . . . 1213.2 Commande Corrective �oue . . . . . . . . . . . . . . . . . . . . . . 122
3.2.1 Entrées du contrôleur �ou . . . . . . . . . . . . . . . . . . 1223.2.2 Sortie du contrôleur �ou . . . . . . . . . . . . . . . . . . . 1233.2.3 Système d'inférence . . . . . . . . . . . . . . . . . . . . . 124
4 Résultats des simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . 1254.1 Application au pendule inversé . . . . . . . . . . . . . . . . . . . . 1254.2 Application au robot manipulateur SCARA . . . . . . . . . . . . . 129
5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
VI
Bibliographie
Conclusion générale 135
Bibliographie 139
Annexes 151
A Systèmes non linéaires utilisés 1521 Système masse ressort amortisseur . . . . . . . . . . . . . . . . . . . . . . . 1522 Pendule inversé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1523 Robots manipulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
VII
Liste des �gures
1 Navigation à travers la thèse . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1 Modèle de base d'un neurone formel. . . . . . . . . . . . . . . . . . . . . . 81.2 Architecture d'un réseau RBF. . . . . . . . . . . . . . . . . . . . . . . . . . 121.3 Fonction gaussienne du réseau RBF. . . . . . . . . . . . . . . . . . . . . . 131.4 Partition �oue de la variable linguistique "Température". . . . . . . . . . . 151.5 Formes usuelles des fonctions d'appartenance. . . . . . . . . . . . . . . . . 171.6 Structure interne d'un système d'inférence �oue. . . . . . . . . . . . . . . . 181.7 Optimum local et global d'une fonction. . . . . . . . . . . . . . . . . . . . 221.8 Classi�cation des méta-heuristiques. . . . . . . . . . . . . . . . . . . . . . . 241.9 Principe général d'un algorithme évolutionnaire. . . . . . . . . . . . . . . . 261.10 Bloc de commande d'un système non linéaire. . . . . . . . . . . . . . . . . 291.11 Architecture d'un contrôleur PID. . . . . . . . . . . . . . . . . . . . . . . . 291.12 Schéma de la commande sliding mode. . . . . . . . . . . . . . . . . . . . . 311.13 Exemple de chattering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331.14 Architecture neuro-sliding mode control (Ertugrul and Kaynak, 2000). . . . 341.15 Architecture proposée par (Jezernik et al., 1997). . . . . . . . . . . . . . . 351.16 Architecture proposée par (Kim and Oh, 1995). . . . . . . . . . . . . . . . 351.17 Architecture proposée par (Karakasoglu and Sundareshan, 1995). . . . . . 36
2.1 Migration des espèces (Simon, 2008) . . . . . . . . . . . . . . . . . . . . . 442.2 Organigramme général de l'algorithme BBO . . . . . . . . . . . . . . . . . 462.3 Illustration de deux solutions candidates S1 et S2 . . . . . . . . . . . . . . 492.4 Exemples des prédateurs et proies. . . . . . . . . . . . . . . . . . . . . . . 502.5 Modèle prédateur et proie. . . . . . . . . . . . . . . . . . . . . . . . . . . 512.6 Algorithme PMBBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 542.7 Modèle prédateur et proies amélioré. . . . . . . . . . . . . . . . . . . . . . 542.8 Application de l'algorithme PMBBO pour le réglage des paramètres du PID. 572.9 Évolution des meilleures HSI par PMBBO Masse ressort amortisseur. . . 582.10 Évolution des mauvaises HSI par PMBBO, Masse ressort amortisseur. . . 582.11 Évolution des gains du PID par PMBBO, Masse ressort amortisseur. . . . 592.12 Positions réelle et désirée du Masse ressort amortisseur par PMBBO. . . . 592.13 Erreurs en position du Masse ressort amortisseur par PMBBO. . . . . . . 592.14 Évolution des meilleures HSI de la PMBBO avec un pendule inversé). . . 602.15 Évolution des gains du PID pour la PMBBO avec un pendule inversé. . . 612.16 Erreurs en position angulaire θ par la PMBBO avec un pendule inversé). . 612.17 Erreurs en position angulaire(étude comparative du PMBBO). . . . . . . . 63
3.1 Exemples d'essaim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
VIII
Liste des �gures
(a) Fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67(b) Abeilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67(c) Oiseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.2 Source de nourriture. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 683.3 Abeille employée exploitant une source de nourriture. . . . . . . . . . . . . 693.4 Un onlooker tente d'améliorer une source de nourriture. . . . . . . . . . . . 693.5 Danse frétillante des abeilles. . . . . . . . . . . . . . . . . . . . . . . . . . . 703.6 AlgorithmeABC-PP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 743.7 Procédure de l'analyse statistique . . . . . . . . . . . . . . . . . . . . . . . 753.8 Résultats des procédures post-hoc, Test de Friedman . . . . . . . . . . . . 913.9 Résultats des procédures post-hoc, Test de Friedman Aligned . . . . . . . . 913.10 Résultats des procédures post-hoc, Test de Quade . . . . . . . . . . . . . . 913.11 Valeurs minimales de la fonction objectif obtenues par ABC-PP et les AG) 943.12 Évolution des gains PID obtenus par ABC-PP . . . . . . . . . . . . . . . . 943.13 Erreurs angulaires obtenues par ABC-PP et les AG . . . . . . . . . . . . . 95
4.1 Procédure d'apprentissage des réseaux RBF par l'algorithme ABC-PP . . . 1024.2 Architecture de la commande équivalente par réseau RBF et ABC-PP. . . 1074.3 Commande Sliding mode par les réseaux RBF et ABC-PP . . . . . . . . . 1074.4 Base d'apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1084.5 Évolution de l'erreur d'apprentissage pour ABC-PP et rétro-propagation . 1094.6 Positions angulaires désirée et réelles (ABC-PP et rétro-propagation) . . . 1104.7 Erreurs Angulaires e(t) (ABC-PP et rétro-propagation ) . . . . . . . . . . 1104.8 Erreur de f(x) pendant la commande sliding mode(ABC-PP et rétro-
propagation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1104.9 Erreur de g(x) pendant la commande sliding mode (ABC-PP et rétro-
propagation) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1114.10 Signal de commande sliding mode (ABC-PP-RBF) . . . . . . . . . . . . . 1114.11 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1124.12 Erreur d'estimation de la fonction f(x) avec bruit . . . . . . . . . . . . . . 1124.13 Erreur d'estimation de la fonction g(x) avec bruit . . . . . . . . . . . . . . 1134.14 Erreur angulaire de la commande sliding mode (ABC-PP-RBF) avec bruit 1134.15 Sortie du contrôleur sliding mode (ABC-PP-RBF) avec bruit . . . . . . . . 113
5.1 Organigramme de l'algorithme GAP-EKF. . . . . . . . . . . . . . . . . . . 1195.2 Approche GAP-EKF-Floue dans la commande sliding mode. . . . . . . . . 1215.3 Fonctions d'appartenance de la variable d'entrée s . . . . . . . . . . . . . . 1235.4 Fonctions d'appartenance de la variable d'entrée s . . . . . . . . . . . . . . 1235.5 Fonctions d'appartenance de la variable de sortie K . . . . . . . . . . . . . 1245.6 Surface de la sortie du contrôleur �ou K . . . . . . . . . . . . . . . . . . . 1255.7 Positions désirée et réelle du pendule inversé par GAP-EKF-Floue . . . . . 1275.8 Erreur de poursuite de la position angulaire par GAP-EKF-Floue . . . . . 1275.9 Erreur d'estimation de la fonction f(θ, θ) par GAP-EKF-Floue . . . . . . . 1275.10 Erreur d'estimation de la fonction g(θ, θ) par GAP-EKF-Floue . . . . . . . 1285.11 Évolution du nombre des neurones du réseau RBF . . . . . . . . . . . . . . 1285.12 Signal de commande pour le pendule inversé par GAP-EKF-Floue . . . . . 1285.13 Valeurs du gains K, pendule inversé avec GAP-EKF-Floue . . . . . . . . . 1295.14 Erreur d'estimation de la matrice M par GAP-EKF-Flou . . . . . . . . . . 1315.15 Erreur d'estimation de la matrice C par GAP-EKF-Flou . . . . . . . . . . 131
IX
Liste des �gures
5.16 Erreur d'estimation du vecteur du frottement F par GAP-EKF-Flou . . . . 1325.17 Positions des 3 articulations par GAP-EKF-Floue . . . . . . . . . . . . . . 1325.18 Erreurs de poursuite des 3 articulations par GAP-EKF-Floue . . . . . . . . 1325.19 Signaux de commande des 3 articulations par GAP-EKF-Floue . . . . . . . 1335.20 Sorties du contrôleurs �ous (gains K) par GAP-EKF-Floue . . . . . . . . . 1335.21 Résumé des contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
A.1 Système masse ressort amortisseur. . . . . . . . . . . . . . . . . . . . . . . 152A.2 Pendule inversé simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153A.3 Robot manipulateur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
X
Liste des tableaux
1.1 Paramètres du PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.2 Synthèse des approches sliding mode avec réseaux RBF. . . . . . . . . . . 40
2.1 Méta-heuristiques pour l'optimisation d'un PID . . . . . . . . . . . . . . . 432.2 Terminologie de la BBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.3 Paramètres de la BBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.4 Paramètres de la PMBBO, Masse ressort amortisseur . . . . . . . . . . . . 582.5 Paramètres de la PMBBO, pendule inversé . . . . . . . . . . . . . . . . . 602.6 Paramètres de BBO, MBBO et PMBBO pour la comparaison. . . . . . . . 622.7 Paramètres des algorithmes génétiques(AG) pour la comparaison . . . . . . 622.8 Coûts minimums des 10 exécutions pour les algorithmes AG, BBO, MBBO
et PMBBO (fg). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 632.9 Performances du pendule inversé avec PID, étude comparative de la PMBBO 63
3.1 Paramètres de l'algorithme ABC . . . . . . . . . . . . . . . . . . . . . . . 713.2 Paramètres des algorithmes PMBBO et ABC-PP . . . . . . . . . . . . . . 773.3 Moyennes de l'erreur pour les 28 fonctions benchmark. . . . . . . . . . . . 783.4 Tests de normalité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 793.5 Test de hétéroscedasticité de Levene. . . . . . . . . . . . . . . . . . . . . . 803.6 Résultats du test de Wilcoxon. . . . . . . . . . . . . . . . . . . . . . . . . . 823.7 Rangs moyens des tests Friedman, Aligned Friedman et Quade . . . . . . 853.8 p-values Ajustées pour les procédures post-hoc . . . . . . . . . . . . . . . . 893.9 Seuils de rejet des procédures . . . . . . . . . . . . . . . . . . . . . . . . . 903.10 Estimation du Contraste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 933.11 Paramètres de ABC-PP pour l'optimisation d'un PID . . . . . . . . . . . . 943.12 Performance du pendule inversé contrôlé par PID (ABC-PP et les AG) . . 95
4.1 Paramètres des algorithmes PMBBO, ABC et ABC�PP pour l'apprentis-sage des réseaux RBF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.2 Paramètres des algorithmes Génétiques pour l'apprentissage hors ligne desréseau RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.3 Valeurs moyennes du critère J pour les 10 fonctions . . . . . . . . . . . . . 1044.4 Résultats du test Wilcoxon pour l'apprentissage des réseaux RBF . . . . . 1054.5 Résultats du test d'estimation du contraste pour l'apprentissage des réseaux
RBF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1064.6 Paramètres des algorithmes ABC-PP et rétro-propagation . . . . . . . . . 108
5.1 Règles du contrôleur �ou . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1245.2 Paramètres de l'algorithme d'apprentissage GAP-EKF . . . . . . . . . . . 126
XI
Liste des tableaux
5.3 Paramètres de l'algorithme d'apprentissage GAP-EKF pour les 3 réseauxRBFM, RBFC et RBFF . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.4 Erreurs d'estimation des 3 réseaux RBF par GAP-EKF. . . . . . . . . . . 133
XII
Liste des abréviations et symboles
.b Meilleure solution (PMBBO et ABC-PP)
.pred prédateur (PMBBO et ABC-PP)
α Niveau de signi�cation d'un test
α(x) Valeur de vérité d'une règle �oue
y Sortie d'un réseau de neurones
κ Facteur de chevauchement(GAP-EKF)
λ Pente de la surface de glissement
λi Taux d'immigration d'un habitat (BBO)
µ Centre d'une fonction gaussienne
µi Taux d'émigration d'un habitat (BBO)
Φ Fonction d'activation d'un réseau RBF
ρ Taux de chasse
σ Largeur d'une fonction gaussienne
θ Angle du pendule inversé
a Poids du réseau de neurones
cmax Nombre maximum de cycles (ABC)
d(t) Perturbations externes
e Erreur de suivi
gmax Nombre maximum de générations (BBO)
H Habitat (BBO)
I Matrice d'identité
Kd Gain dérivé d'un PID
Ki Gain intégral d'un PID
Kp Gain proportionnel d'un PID
m La masse de la tige d'un pendule inversé
M(q) Matrice d'inertie d'un robot
mi Probabilité de mutation (BBO)
mmax Taux maximum de mutation (BBO)
Nx Nombre d'entrées d'un réseau de neurones
Ny Nombre de sorties d'un réseau de neurones
npred Nombre de prédateurs
XIII
Liste des abréviations et symboles
Omax Dépassement maximal
Pi Probabilité d'existence (BBO)
Pmax Probabilité maximale d'existence (BBO)
q(t) Position angulaire d'une articulation d'un robot
s Surface de glissement
sn Source de nourriture (ABC)
Tm Temps de montée d'un système
Tr Temps de réponse d'un système
u(t) Signal de commande
UA(x) Fonction d'appartenance d'une variable �oue
uc(t) Commande corrective de la sliding mode
ueq(t) Commande équivalente de la sliding mode
x Entrée d'un réseau
x(t) Vecteur d'état
xd(t) État désirée
y(t) Sortie d'un système ou d'une fonction
ABC Arti�cial Bees Colony
ABC-PP Arti�cial Bees Colony-Predator and Prey
ACO Ant Colony Optimization
AG Algorithmes génétiques
BBO Biogeography Based Optimization
DE Di�erential Evolution
EKF Extended Kalman Filter
FL Fuzzy Logic
FWER Family-Wise Error Rate
GAP Growing and Pruning
HSI Habitat Suitability Index
MBBO Modi�ed Biogeography Based Optimization
P&P Predator and Prey
PD Proportionnelle et dérivée
PID Proportionnelle, intégrale et dérivée
PMBBO Predator and Prey Modi�ed Biogeography Based Optimization
PSO Particle Swarm Optimization
RAN Ressource Allocation Network
RANEKF RAN extended Kalman Filter
RBF réseau à fonctions de bases radiales
SIV Suitability Index variable
XIV
Introduction générale
1 Introduction
Les méthodes classiques de l'automatique ont été largement appliquées à de nombreux
problèmes de régulation industrielle. Cependant, la plupart des systèmes physiques pré-
sentent des non linéarités et leurs paramètres sont souvent mal connus et/ou variables
dans le temps (Lewis et al., 1993).
Pour la commande de telles classes de systèmes, les méthodes conventionnelles de
l'automatique ont montré leurs limites en termes de stabilisation et de performances.
Avec le développement considérable des calculateurs numériques, les automaticiens ont
adopté de plus en plus de nouvelles approches telles que la commande prédictive et la
commande robuste (Slotine and Li, 1991).
Lorsque les systèmes commandés sont soumis à des perturbations et à des variations
de paramètres, la commande en mode glissant (Sliding Mode Control) apparaît comme
une bonne solution permettant d'assurer la robustesse, la haute précision, la bonne sta-
bilité et la simplicité pour les systèmes perturbés. Néanmoins, cette solution présente
l'inconvénient de nécessiter une estimation du modèle du système en temps réel.
Les avancées récentes en informatique ont permis l'apparition d'outils intelligents
comme les réseaux de neurones et la logique �oue. Ces outils sont regroupés sous le
concept de l'intelligence computationnelle. Cette dernière est un domaine de l'informa-
tique qui étudie les mécanismes d'adaptation qui permettent un comportement intelligent
dans des environnements changeants (Kusiak, 2000). Elle se concentre sur les modèles
informatiques des systèmes biologiques et d'intelligence naturelle, depuis l'intelligence des
essaims, les systèmes �ous, les réseaux de neurones arti�ciels, les systèmes immunitaires
arti�ciels et la computation évolutive. Elle fournit des algorithmes de paradigmes pour
résoudre des problèmes complexes du monde réel comme l'approximation des paramètres
des systèmes non linéaires (Engelbrecht, 2003).
2 Contexte et problématique
Les réseaux de neurones en général et les réseaux à fonctions de bases radiales (RBF)
en particulier, sont de puissants approximateurs de fonctions à condition de trouver la
1
Introduction générale
bonne combinaison des paramètres et la bonne architecture. Ce réglage est réalisé par les
algorithmes d'apprentissage (Haykin, 1999).
L'apprentissage des réseaux de neurones à fonctions de bases radiales peut être consi-
déré comme un problème d'optimisation où sa résolution consiste à trouver la ou les
meilleures solutions véri�ant un ensemble de contraintes et d'objectifs dé�nis par l'uti-
lisateur. Il est nécessaire que le problème introduise un critère de comparaison pour dé-
terminer si une solution est meilleure qu'une autre. Ainsi, la meilleure solution, appelée
aussi solution optimale ou l'optimum, est la solution ayant obtenu la meilleure évaluation
au regard du critère dé�ni. Les problèmes d'optimisation sont des problèmes complexes
et donc ne possèdent pas, à ce jour, un algorithme général permettant de les résoudre
en un temps polynomial. Ce problème de l'explosion combinatoire limite l'utilisation des
méthodes exactes à la résolution des problèmes de petites tailles. Dans le cas contraire,
comme il est souvent le cas pour les applications réelles, les méthodes approchées et
en particulier, les méta-heuristiques sont devenues une alternative intéressante (Mitchell,
1998).
Les algorithmes évolutionnaires sont des méta-heuristiques d'inspiration biologique
basés sur la sélection naturelle néo-Darwinienne. Ils génèrent une population de solutions
candidates et tentent d'évoluer en appliquant des opérateurs d'évolution et la meilleure
solution est celle qui a la valeur optimale d'une fonction objectif. Ils sacri�ent souvent la
complétude pour gagner de l'e�cacité. Parmi ces méta-heuristiques, nous pouvons citer
l'optimisation basée sur la biogéographie (BBO) et la colonie d'abeilles arti�cielles (ABC).
Ces algorithmes procèdent par l'exploration de plusieurs zones de l'espace de recherche
et l'exploitation des zones prometteuses en intensi�ant la recherche dans leurs voisinages.
Le problème de ces algorithmes est de trouver un compromis entre l'intensi�cation des
recherches et la diversi�cation (Paschos, 2005).
3 Objectifs et contributions
Pour remédier aux problèmes de la commande sliding mode à savoir, la nécessité
de connaitre à priori les paramètres du modèle, nous proposons d'utiliser les réseaux
de neurones à fonctions de bases radiales comme approximateurs. Reste à choisir un
algorithme d'apprentissage adéquat et robuste dû à la nature dynamique et variante du
domaine d'application souhaité.
Dans cette thèse, nous avons ÷uvré en deux axes parallèles pour concevoir deux ap-
proches de commande sliding mode à base des réseaux de neurones RBF, la première
repose sur un algorithme d'apprentissage hors ligne par les algorithmes d'optimisation
évolutionnaire, tandis que la deuxième utilise un algorithme d'apprentissage en ligne et
un contrôleur �ou.
2
Introduction générale
3.1 Apprentissage des réseaux RBF par les algorithmes évolu-
tionnaires
Dans ce volet, et a�n d'implémenter un algorithme d'apprentissage hors ligne en uti-
lisant les algorithmes évolutionnaires, nous avons travaillé avec deux algorithmes récents,
l'optimisation basée sur la biogéographie (BBO) et la colonie d'abeilles arti�cielles (ABC).
Pour utiliser ces deux algorithmes dans l'apprentissage des réseaux de neurones RBF,
nous devons accroître leur potentiel de diversi�cation pour éviter qu'ils soient piégés dans
des minima locaux.
La solution proposée dans cette thèse est de procéder à l'hybridation des deux algo-
rithmes avec une méthode naturelle assurant la diversi�cation : le modèle prédateur et
proies. Ceci a conduit aux contributions suivantes :
A) Application de l'optimisation basée sur la biogéographie pour l'optimisation des
paramètres d'un contrôleur PID :
L'algorithme BBO a été utilisé pour trouver la combinaison optimale des gains d'un
contrôleur PID pour le pendule inversé, les performances obtenues ont été comparées
avec celles des algorithmes génétiques.
Cette application a fait l'objet d'une communication internationale.
• Salem, M. and Khel�, M. F. (2012). Application of biogeography based optimization in tuning a
PID controller for nonlinear systems. In : IEEE International Conference on Complex Systems
(ICCS), Agadir , Morocco.
B) Amélioration du modèle Prédateur et proies :
Avant d'utiliser le modèle prédateur et proies pour augmenter la diversi�cation des
algorithmes BBO et ABC, nous l'avons amélioré en introduisant les modi�cations
suivantes :
i) Considération de plusieurs prédateurs au lieu d'un.
ii) Considération des meilleures solutions pou créer ls prédateurs.
iii) Déplacement des proies vers des emplacements aléatoires.
iv) Utilisation d'un taux de chasse variable.
C) Hybridation de l'algorithme d'optimisation basée sur la biogéographie (BBO) par
le modèle prédateur et proies amélioré :
Dans l'algorithme BBO classique, Nous avons procédé à la modi�cation de l'opéra-
teur de Migration et remplacé la mutation par le modèle prédateur et proies amélioré
donnant lieu à un nouvel algorithme hybride PMBBO.
Cette étape a été valorisée par les deux publications suivantes :
• Salem, M. and Khel�, M. F. (2014a). Optimization of nonlinear controller with an enhanced
biogeography approach. An International Journal of Optimization and Control : Theories &
Applications, 4(2) :77-87.
3
Introduction générale
• Salem, M. and Khel�, M. F. (2014b). Predator and prey modi�ed biogeography based opti-
mization approach (PMBBO) in tuning a PID controller for nonlinear systems. International
Journal of Intelligent Systems and Applications(IJISA), 6(11) :12-20.
D) Amélioration de la colonie d'abeilles arti�cielles par le modèle prédateur et proies
amélioré.
Nous avons essayer d'accroître la diversi�cation de l'algorithme ABC en remplaçant
la phase des scouts par le modèle prédateur et proie amélioré. L'algorithme obtenu
ABC-PP a été appliqué pour optimiser un contrôleur PID donnant des résultats
meilleurs que les algorithmes génétiques. Il a été validé par une communication
internationale :
• Salem, M. and Khel�, M. F. (2013). Nonlinear inverted pendulum PID control by an improved
arti�cial bees colony-predator and prey approach. In 3rd IEEE International Conference on
Systems and Control ICSC13, Algiers, Algeria.
E) Analyse statistique des algorithmes PMBBO et ABC-PP pour le problème d'opti-
misation des fonctions :
Pour choisir l'algorithme le plus adapté des deux, nous avons e�ectué une comparai-
son des algorithmes PMBBO et ABC-PP avec quatre algorithmes évolutionnaires
récents issus de la compétition CEC2013 (Congress on Evolutionary Computation).
La comparaison a été appuyée par une une analyse statistique avec une panoplie de
tests paramétriques et non-paramétriques.
F) Commande sliding mode par les réseaux de neurones RBF : Après qu'une autre
comparaison a couronné l'algorithme ABC-PP comme étant le plus performant pour
le problème d'apprentissage des réseaux RBF pour l'approximation des fonctions
benchmark, il a été appliqué pour l'apprentissage d'un réseau de neurones RBF
pour estimer le modèle du pendule inversé dans la commande sliding mode. Cette
partie a fait l'objet d'une communication internationale :
• Salem, M. and Khel�, M. F. (2014c). An enhanced swarm intelligence based training algorithm
for RBF neural networks in function approximation. In The 2nd IEEE World Conference on
Complex Systems, 2014, Agadir, In press.
3.2 Apprentissage en ligne des réseaux de neurones RBF
Dans le deuxième volet, nous avons considéré les algorithmes d'apprentissage en ligne
des réseaux de neurones RBF dans la commande sliding mode.
Dans cette partie de la thèse, nous avons introduit les contributions suivantes :
G) Amélioration et implémentation de l'algorithme d'apprentissage en ligne GAP-EKF
des réseaux de neurones RBF, l'algorithme utilise une stratégie Growing and Pru-
ning où le réseau commence avec 0 neurones et ceux-ci seront ajoutés ou supprimés
4
Introduction générale
selon le besoin. Nous avons choisi de modi�er seulement les paramètres du neurone
le plus proche.
H) Conception d'une approche de commande sliding mode basée sur la combinaison en
parallèle des réseaux de neurones RBF avec apprentissage par l'algorithme GAP-
EKF et d'un contrôleur �ou.
Ces résultats ont été validés par les productions suivantes :
• Salem, M. and Khel�, M. F. (2011). rbf based sliding mode control for robot manipulators. In
International Conference on Communications, Computing and Control Applications (CCCA
2011), Hammamet, Tunisia.
• Salem, M. and Khel�, M. F. (2014b). Sequential adaptive RBF-fuzzy variable structure control
applied to robotics systems. International Journal of Intelligent Systems and Applications,
6(10) :19-29.
4 Structure de la thèse
Ce mémoire est structuré en cinq chapitres (cf. Figure 1) :
Le premier chapitre dresse un état de l'art non exhaustif des techniques de l'intelligence
computationnelle : réseaux de neurones, logique �oue et algorithmes d'optimisation. Deux
commandes des systèmes non linéaires sont présentées : la commande Proportionnelle-
intégrale et dérivée (PID) et la commande robuste sliding mode. Ce chapitre est clôturé
par une synthèse des approches de la commande sliding mode avec les réseaux RBF.
Le deuxième chapitre commence par introduire l'algorithme d'optimisation biogéogra-
phique (BBO), nous passons ensuite à détailler une proposition d'amélioration du modèle
prédateur et proies pour l'utiliser pour hybrider l'algorithme BBO. En�n, une comparai-
son des performances de la nouvelle approche PMBBO avec les algorithmes génétiques
pour le réglage d'un contrôleur PID est présentée.
Le troisième chapitre est consacré à la méta-heuristique d'optimisation ABC et son
hybridation avec le modèle prédateur et proies amélioré (ABC-PP) suivie par une analyse
statistique comparant les deux algorithmes introduits par la présente thèse avec quelques
algorithmes évolutionnaires connus.
Le quatrième chapitre explore l'utilisation de l'algorithme ABC-PP dans l'apprentis-
sage hors ligne des réseaux de neurones RBF et introduit une commande sliding mode
basée sur l'approche ABC-PP-RBF pour commander un pendule inversé.
Le cinquième chapitre décrit un nouvel algorithme d'apprentissage en ligne des réseaux
de neurones RBF et son fonctionnement. L'algorithme GAP-EKF est utilisé en parallèle
avec un contrôleur �ou pour concevoir une commande sliding mode d'un pendule inversé
en premier lieu et ensuite le robot manipulateur SCARA.
5
Introduction générale
Chapitre
1
Techn
iquesde
l'intelligence
compu
tationnelle
etsesap-
plications
dans
lacommande
Chapitre 2
Optimisation biogéogra-
phique basée sur le modèle
prédateur et proies amélioré
Chapitre 3
Optimisation par colonie
d'abeilles arti�cielles et pré-
dateur et proies amélioré
Chapitre 4
Apprentissage hors ligne des
réseaux de neurones RBF
par l'algorithme ABC-PP
Chapitre 5
Apprentissage en ligne des
réseaux de neurones RBF
par l'approche GAP-EKF
Figure 1: Navigation à travers la thèse
6
Chapitre 1
Techniques de l'intelligence
computationnelle et ses applications
dans la commande
1 Introduction
La majorité des systèmes dynamiques utilisés dans la réalité sont des systèmes non
linéaires. Ce type de système est généralement sujet aux variations et incertitudes struc-
turelles et non structurelles causées par l'environnement d'où le recours aux techniques
de l'intelligence computationnelle pour palier à ce problème. Ces techniques sont connues
par leur adaptation aux changements environnementaux.
Dans ce chapitre, nous allons présenter ces techniques (Réseaux de neurones, Logique
�oue et algorithmes évolutionnaires) et leurs applications dans la commande robuste (Sli-
ding mode) des systèmes non linéaires.
La dernière section est consacrée à la présentation d'une synthèse des approches ré-
centes utilisant les réseaux RBF dans la commande sliding mode et leurs comparaison.
2 Réseaux de neurones
2.1 Neurone formel
Le neurone formel est un modèle mathématique simpli�é du neurone biologique. Il
présente un certain nombre d'entrées, un corps traitant ces entrées et un axone véhiculant
la réponse du neurone. La première modélisation d'un neurone découle des résultats des
travaux signi�catifs de Mac Culloch et Pitts (McCulloch and Pitts, 1943). La Figure 1.1
représente un modèle de base de ce neurone.
Le modèle de la Figure 1.1 est composé :
- Des entrées xi, i = 0, 1, . . . , n ; l'entrée spéciale avec la valeur x0 = 1 est appelée le biais
7
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
x1
x2
xn
a1
a2
an
∑Φ
x0 = 1
a0
y
Figure 1.1: Modèle de base d'un neurone formel.
- Des paramètres de pondération (Poids) ai.
- De la fonction d'activation ou de seuillage Φ (non linéaire, sigmoïde,. . . etc.) ;
- D'une sortie y donnée par la relation (1.1) :
y = Φ
(n∑i=0
aixi
)(1.1)
Une collection de neurones formels est appelée réseaux de neurones. Ces réseaux sont
souvent constitués de couches de neurones inter-connectés (McCulloch and Pitts, 1943)
et le type de connections, la nature de la fonction d'activation et d'autres paramètres dé-
termineront le type du réseau de neurones (Perceptron multicouches, Réseaux à fonctions
de base radiales, Réseau de Kohonen, etc..).
2.2 Propriétés des réseaux de neurones
2.2.1 Apprentissage
L'apprentissage et l'adaptation constituent deux caractéristiques essentielles des ré-
seaux de neurones. Le rôle de l'apprentissage est de dé�nir les poids de chaque connexion.
De nombreuses règles existent pour modi�er les poids des connexions pour arriver à un
apprentissage correct. Lorsque la phase d'apprentissage est achevée, le réseau doit être
capable de faire les bonnes associations pour les vecteurs d'entrées qu'il n'aura pas ap-
pris (Moody and Darken, 1995).
C'est l'une des propriétés importantes dans les réseaux de neurones, car elle permet
de donner la capacité de reconnaitre des formes ressemblantes et même dégradées des
prototypes appris.
Il existe deux types principaux d'apprentissages : l'apprentissage supervisé et l'appren-
tissage non- supervisé.
• Apprentissage superviséNous parlons d'apprentissage supervisé quand le réseau est alimenté avec la bonne
réponse pour les exemples d'entrées donnés. Le réseau a alors comme but d'ap-
proximer ces exemples aussi bien que possible et de développer à la fois la bonne
8
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
représentation mathématique qui lui permet de généraliser ces exemples pour ensuite
traiter des nouvelles situations (Hagan et al., 1995).
• Apprentissage non-superviséDans le cas de l'apprentissage non-supervisé le réseau décide lui-même quelles sont
les bonnes sorties. Cette décision est guidée par un but interne au réseau qui exprime
une con�guration idéale à atteindre par rapport aux exemples introduits. Les cartes
auto organisatrices de Kohonen sont un exemple de ce type de réseau (Hagan et al.,
1995).
Outre la classi�cation présentée ci-dessus, les méthodes d'apprentissage sont souvent
di�érenciées de par leur caractère hors ligne (o�-line) ou en ligne (on-line) :
• Apprentissage hors ligneCe mode d'apprentissage consiste à accumuler les erreurs instantanées consécutives,
et à n'e�ectuer l'adaptation des poids synaptiques que lorsque l'ensemble des don-
nées d'apprentissage ont été présentées au réseau. Cette dernière méthode permet
de mieux estimer le gradient réel de la fonction coût, puisqu'il est à présent calculé
à partir d'un ensemble d'exemples, plutôt qu'à partir d'un seul.
• Apprentissage en ligne
Il consiste à modi�er les valeurs des poids synaptiques immédiatement après la pré-
sentation d'un exemple. Dans ce cas, seul le gradient instantané de la fonction coût
est utilisé pour l'adaptation des paramètres du système. Sous la condition que les
exemples soient présentés au réseau de neurones de manière aléatoire, l'apprentis-
sage en-ligne rend la recherche du minimum de la fonction coût stochastique en
nature, ce qui rend moins probable, pour l'algorithme d'apprentissage, de tomber
dans un minimum local
L'e�cacité relative des modes d'apprentissage en-ligne et hors-ligne dépend essentielle-
ment du problème considéré. L'apprentissage en-ligne présente cependant l'avantage que,
pour une seule présentation de l'ensemble de la base de données, il implique de multiples
phases d'adaptations des poids synaptiques lorsque des données similaires se représentent,
ce qui se produit fréquemment pour des bases de données très étendues (Hagan et al.,
1995).
2.2.2 Approximation parcimonieuse
Les réseaux de neurones à couches ont la propriété générale d'être des approximateurs
universels parcimonieux (Hagan et al., 1995).
Les travaux de Cybenko (Cybenko, 1989) a prouvé la possibilité d'approximer n'im-
porte quelle fonction non linéaire avec la précision voulue par des réseaux de neurones à
une seule couche cachée avec des fonctions d'activations non linéaires. Cependant, rien
n'est dit sur le nombre de neurones nécessaires à cette approximation.
9
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Cette propriété n'est pas spéci�que des réseaux de neurones mais au contraire d'autres
approximateurs comme les polynômes. La spéci�cité des réseaux de neurones réside dans
le caractère � parcimonieux � de l'approximation, où à précision égale, les réseaux de neu-
rones nécessitent moins de paramètres ajustables que les autres approximateurs connus ;
plus précisément, le nombre de poids varie linéairement avec le nombre de variables de
la fonction à approcher, alors qu'il varie exponentiellement pour la plupart des autres
approximateurs.
C'est cette remarquable parcimonie qui justi�e l'intérêt pratique des réseaux de neu-
rones : dès qu'un problème fait intervenir plus de deux variables, les réseaux de neurones
sont, en général, préférables aux autres méthodes (Hornik, 1991).
2.3 Étapes de la conception d'un réseau de neurones
Les réseaux de neurones sont souvent utilisés pour résoudre les problèmes de classi�-
cation et de régression. A�n de concevoir un réseau de neurones, nous citons chronologi-
quement les quatre grandes étapes qui doivent être suivies (Hagan et al., 1995).
2.3.1 Choix et préparation des échantillons
Le processus d'élaboration d'un réseau de neurones commence toujours par le choix et
la préparation des échantillons de données. Comme dans les cas d'analyse de données, cette
étape est cruciale et va aider le concepteur à déterminer le type de réseau le plus approprié
pour résoudre sont problème. La façon dont se présente l'échantillon conditionne : le type
de réseau, le nombre de neurones d'entrée, le nombre de neurones de sortie et la façon
dont il faudra mener l'apprentissage, les tests et la validation (Moody and Darken, 1995).
2.3.2 Élaboration de la structure du réseau
La structure du réseau dépend étroitement du type des échantillons. Il faut d'abord
choisir le type de réseau : un perceptron standard, un réseau de Hop�eld, un réseau de
fonctions à bases radiales, un réseau de Kohonen etc... Dans le cas du perceptron par
exemple, il faudra aussi choisir le nombre de neurones dans la couche cachée. Plusieurs
méthodes existent et nous pouvons par exemple prendre une moyenne du nombre de
neurones d'entrée et de sortie, mais rien ne vaut de tester toutes les possibilités et de
choisir celle qui o�re les meilleurs résultats (Hagan et al., 1995).
2.3.3 Apprentissage du réseau
L'apprentissage consiste tout d'abord à calculer les poids optimaux des di�érentes
liaisons, en utilisant un échantillon. La méthode la plus utilisée est la rétro-propagation :
nous entrons des valeurs des cellules d'entrée et en fonction de l'erreur obtenue en sortie,
10
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
nous corrigeons les poids. Ce cycle est répété jusqu'à ce que la courbe d'erreur du réseau
ne soit croissante (il faut bien prendre garde de ne pas sur-entrainer un réseau de neurones
qui deviendra alors moins performant) (Moody and Darken, 1995).
2.3.4 Validation et Test
Alors que les tests concernent la véri�cation des performances d'un réseau de neurones
hors apprentissage et sa capacité de généralisation, la validation est parfois utilisée lors
de l'apprentissage (e.g : cas du early stopping). Une fois le réseau calculé, il faut toujours
procéder à des tests a�n de véri�er que le réseau réagit correctement. Il y a plusieurs mé-
thodes pour e�ectuer une validation : la cross validation, le bootstrapping... mais pour les
tests, dans le cas général, une partie de l'échantillon est simplement écartée de l'échantillon
d'apprentissage et conservée pour les tests hors échantillons. Nous pouvons par exemple
utiliser 60% de l'échantillon pour l'apprentissage, 20% pour la validation et 20% pour
les tests. Dans les cas de petits échantillons, nous ne pouvons pas toujours utiliser une
telle distinction, simplement parce qu'il n'est pas toujours possible d'avoir su�samment
de données dans chacun des groupes ainsi crées. Nous avons alors parfois recours à des
procédures comme la cross-validation pour établir la structure optimale du réseau (Hagan
et al., 1995).
2.4 Réseaux de neurones à fonctions de bases radiales
Un réseau à fonctions de bases radiales (RBF) est un réseau neurologique arti�ciel qui
utilise des fonctions de bases radiales comme fonctions d'activation et dont la sortie est
une combinaison linéaire. Leur propriétés théoriques et pratiques ont été étudiées en détail
depuis la �n des années 80 (Moody and Darken, 1995). Ce type de réseau est employé
dans l'approximation de fonction, la prévision de série chronologique et l'identi�cation de
systèmes.
Un réseau à fonction de bases radiales est basé sur une architecture qui s'organise en
deux couches seulement ; une couche cachée et une couche de sortie comme le montre la
Figure 1.2.
La couche cachée, constituée des noyaux (ou neurones) RBF e�ectue une transforma-
tion non linéaire de l'espace d'entrée.
La couche de sortie calcule une combinaison linéaire des sorties de la couche cachée.
Chaque noyau élémentaire calcule la distance entre l'entrée et son centre qu'il passe ensuite
dans une non linéarité concrétisée par une fonction d'activation Φ qui est généralement
de type gaussien.
La valeur que peut prendre la sortie du noyau gaussien est d'autant plus importante
que l'entrée est plus proche de son centre et tend vers zéro lorsque la distance entrée-centre
devient importante.
11
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
La sortie du réseau RBF est donnée par (Hagan et al., 1995) :
yk(x) =N∑j=1
akjΦj(x) + ak0 (1.2)
où sa fonction gaussienne est donnée par la relation suivante
Φj(x) = exp
[−‖xi − µj‖
2
2σ2j
](1.3)
||.|| dénote la norme euclidienne, x est le vecteur d'entrée des éléments xi, et µj : le
vecteur déterminant les centres de la fonction Φj par rapport aux entrées et σ est sa
largeur (cf. Figure 1.3). ak0 est le poids d'un neurone dont l'entrée est toujours 1, appelé
le biais (Hagan et al., 1995).
2.4.1 Apprentissage des réseaux de neurones RBF
L'apprentissage d'un réseau RBF consiste à déterminer son architecture (le nombre
des fonctions radiales N) et à �xer ses paramètres : centres, largeurs et poids. Générale-
ment nous déterminerons empiriquement la valeur de N en recourant à des techniques de
validation croisée.
L'apprentissage d'un réseau RBF est de type supervisé : Nous disposons d'un ensemble
d'apprentissage constitué dem couples (vecteur d'entrée, valeur cible) : (x1; yd1); ...; (xm; ydm)
où xi ∈ Rd; ydi ∈ R.L'objectif de l'apprentissage est de minimiser une quantité J , donnée par l'équation (1.4).
J =1
n
m∑i=1
(ydi − yi(xi))2 (1.4)
Une caractéristique intéressante des modèles RBF est que nous pouvons diviser les para-
mètres en trois groupes : les centres µ, les largeurs σ et les poids a.
L'interprétation de chaque groupe permet de proposer un algorithme d'apprentissage
simple et performant (Hagan et al., 1995).
x1
x2
xNx
yk
a1
a2aN
Figure 1.2: Architecture d'un réseau RBF.
12
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
σ
µx
Φ = f(x)
Figure 1.3: Fonction gaussienne du réseau RBF.
2.4.2 Algorithmes d'apprentissage des réseaux RBF
• Approche séquentielle
Cette technique d'apprentissage proposée dès la �n des années 1980 est très couramment
utilisée (Hagan et al., 1995). Elle consiste à optimiser successivement les trois jeux de
paramètres (a, µ, σ). Cette technique a l'avantage d'être simple à mettre en ÷uvre, de
demander peu de calcul et de donner des résultats acceptables. La solution obtenue n'est
cependant pas optimale.
Dans un premier temps, nous estimons les positions des centres µ et les largeurs σ
à l'aide d'un algorithme de clustring de type k −means. Une fois ces paramètres �xés,
il est possible de calculer les poids optimaux a par une méthode de régression linéaire.
C'est certainement la simplicité et l'e�cacité de cette méthode qui a fait le succès des
RBF (Moody and Darken, 1995).
En connaissant les centres et largeurs des fonctions gaussiennes, la sortie du réseau
donnée en (1.2) devient :
y(x) =N∑j=0
akjΦj(‖x− µj‖ , σj) =N∑j=0
ajhj(x). (1.5)
Nous cherchons la solution a, le vecteur des poids minimisant la di�érence ε entre la sortie
estimée et la sortie désirée. Nous avons donc un système d'équations linéaires qui s'écrit
sous la forme matricielle :
Y = Ha+ ε (1.6)
La matrice H, de dimension m ∗ N , donne les réponses des N centres RBF sur les m
exemples, Y est un vecteur regroupant les m sorties yi sur l'ensemble d'apprentissage, et
ε est le vecteur d'erreur. Le critère à optimiser est :
E = εT ε (1.7)
13
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Si nous ajoutons un terme de régularisation de type ridge regression (Hoerl, 1962), qui
pénalise les solutions avec de grandes valeurs des poids, nous écrivons :
E = εT ε+ aT a. (1.8)
La solution s'obtient par un calcul classique de pseudo-inverse, et s'écrit :
a = (HTH + λI)−1HTY (1.9)
où I est la matrice identité de dimensionm. Le paramètre λ doit être déterminé par va-
lidation croisée ou, de manière plus sophistiquée, en employant des méthodes bayésiennes
de ré-estimation (Orr, 1995)).
• Rétro-propagation du gradient de l'erreur
L'algorithme de rétro-propagation du gradient de l'erreur à été crée en généralisant les
règles d'apprentissage de Widrow Ho� aux réseaux multicouches à fonction d'activation
non linéaire (Widrow and Lehr, 1990).
La rétro-propagation du gradient de l'erreur est utilisée pour ajuster les poids et les
biais du réseau a�n de minimiser l'erreur quadratique entre la sortie du réseau et la sortie
réelle (Widrow and Lehr, 1990).
A chaque couple entrée/sortie, une erreur est calculée, le gradient, ou pente de l'erreur
est déterminé. Ensuite les poids et les biais sont modi�és sur le réseau. Nous réitérons ces
calculs jusqu'à l'obtention du critère d'arrêt.
Une alternative à l'apprentissage séquentiel décrite dans la section précédente consiste
à optimiser les paramètres du modèles RBF par descente de gradient, comme nous le
faisons pour d'autres modèles connexionnistes. Il faut pour cela calculer les dérivées du
coût par rapport aux di�érents paramètres. L'erreur d'un seul couple d'entrée/sortie Ei =12(ydi − y(xi))
2 et pour la fonction gaussienne de l'équation (1.3), les dérivées partielles
s'écrivent sous la forme suivante (Orr, 1995) :
dEiaj
= −aj(ydi −∑j
ajΦij)Φij
dEiσj
= −aj‖x− µj‖2
σ3j
(ydi −∑j
ajΦij)Φij
dEiµkj
= −ajxki − µkjσ2j
(ydi −∑j
ajΦij)Φij (1.10)
A partir de ces équations, nous pouvons mettre en ÷uvre un algorithme d'apprentissage
standard de minimisation de l'erreur, en version batch (calcul de l'erreur sur l'ensemble
des exemple avant mise à jour des paramètres) ou en ligne (mises à jour après chaque
14
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
exemple, approche qui en général o�re de meilleures performances). Il s'agit cependant
d'un problème non linéaire, et l'algorithme d'apprentissage a de grandes chances de rester
bloqué dans un minimum local de la fonction coût. La réussite de l'apprentissage dépend
donc beaucoup des conditions initiales (Widrow and Lehr, 1990).
3 Logique �oue
3.1 Généralités sur la logique �oue
La logique �oue (Fuzzy Logic) est une technique formalisée en 1965 par Zadeh de
l'université de Berkeley (Zadeh, 1965). Elle permet de traiter des variables logiques non
exactes dont la valeur peut varier entre 0 et 1. Elle se base sur la représentation et la
manipulation des connaissances imprécises, vagues et incertaines.
La logique �oue associe à un concept imprécis (concepts humains e.g. grand, chaud,...),
une fonction d'appartenance à un ensemble. Généralement, c'est une fonction numérique
continue qui exprime un point de vue subjectif d'une personne sur la variabilité du concept.
Il a été montré qu'une telle fonction est utile pour représenter l'in�uence des modi-
�cateurs linguistiques, comme � très, plus ou moins �, � peu � sur la signi�cation des
concepts (Zadeh, 1965).
3.1.1 Variables linguistiques et ensembles �ous
La description imprécise d'une certaine situation, d'un phénomène ou d'une grandeur
physique ne peut se faire que par des expressions relatives ou �oues à savoir : Quelque,
Beaucoup, Souvent, etc. Ces di�érentes classes d'expressions �oues dites ensembles �ous
forment ce que nous appelons des variables linguistiques. A�n de pouvoir traiter nu-
mériquement ces variables linguistiques (normalisées généralement sur un intervalle bien
déterminé appelé univers de discours), il faut les soumettre à une dé�nition mathématique
à base de fonctions d'appartenance qui montre le degré de véri�cation de ces variables lin-
guistiques relativement aux di�érents sous ensembles �ous de la même classe (Abraham,
2001). Un exemple est donné dans la Figure 1.4.
50 Température
U(x)
0
1Petit Moyen Grand
Figure 1.4: Partition �oue de la variable linguistique "Température".
15
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
3.1.2 Sous-ensembles �ous
Les sous-ensembles �ous sont une classe d'objet où la transition entre l'appartenance
et la non appartenance à l'ensemble n'est pas abrupte mais graduelle. Un sous-ensemble
�ou A, est dé�ni par :
� Un intervalle convexe A de <, auquel est associé un label linguistique (e.g. "Pe-
tit","Moyen", "Grand").
� Une fonction réelle UA(x) à valeurs dans [0, 1], qui donne le degré d'appartenance
d'une variable x au sous-ensemble �ou UA(x). Cette fonction modélise les situations
où un même élément peut être classé dans plusieurs catégories avec des degrés
divers (Klir and Yuan, 1995).
3.1.3 Fonction d'appartenance
A�n de permettre un traitement numérique des variables linguistiques dans la prise
de décisions �oues sur calculateur, une dé�nition des variables linguistiques à l'aide de
fonctions d'appartenance s'impose. Dans ce contexte, nous associons à chaque valeur de
la variable linguistique une fonction d'appartenance désignée par UA(x), qui sera désignée
par le degré ou le facteur d'appartenance. Il est à noter que l'ensemble des éléments de
x pour lesquels UA(x) > 0, est appelé �support de A�. Le plus souvent, nous utilisons
pour les fonctions d'appartenance les fonctions suivantes (cf. Figure 1.5) (Kartalopoulos,
2004) :
� Fonction triangulaire : Elle est dé�nie par trois paramètres a, b, c qui déterminent
les coordonnées des trois sommets.
U(x) = Max(Min(x− ab− a
,c− xc− b
), 0) (1.11)
� Fonction trapézoïdale : Elle est dé�nie par quatre paramètres a, b, c, d :
U(x) = Max(Min(x− ab− a
, 1,c− xd− x
), 0) (1.12)
� Fonction gaussienne : Elle est dé�nie par deux paramètres (σ, µ) :
U(x) = exp(−(x− µ)2
2σ2) (1.13)
� Fonction sigmoïdale : Elle est dé�nie par deux paramètres a, c :
U(x) =1
1 + exp(a(x− c))(1.14)
16
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Figure 1.5: Formes usuelles des fonctions d'appartenance.
3.1.4 Base de règles �oues
Nous dé�nissons une règle �oue comme une proposition �oue correspondant à la mise
en relation de deux propositions �oues par une implication (Abraham, 2001).
Une proposition �oue est dite élémentaire, si elle n'est constituée que d'un prédicat de la
forme "X est A". La composition de deux ou plusieurs variables linguistiques constitue
une proposition �oue. L'expression linguistique générale d'une règle peut être formalisée
de la manière suivante :
si x est A alors y est B.
où A et B sont des sous-ensembles �ous , x et y sont des variables linguistiques.
Nous appelons prémisse, la partie condition de la règle ( x est A ) et conclusion, la seconde
partie (y est B).
D'une manière générale, nous pouvons combiner des propositions �oues de type "x est
A" par des opérateurs logiques de conjonction et de disjonction. Nous pouvons alors
construire des règles �oues plus complexes, dont la partie prémisse et la partie conclusion
correspondent à une combinaison de propositions, par exemple (Rajasekaran and Pai,
2003) :
si x1 est A1 et x2 est A2 alors y est B.
3.2 Système d'inférence �oue
La Figure 1.6 illustre la structure générale du c÷ur d'un système d'inférence �oue à
deux entrées et une sortie.
Nous pouvons noter que le calcul de la sortie y s'e�ectue à partir de trois étapes
fondamentales (Abraham, 2001) :
� Une interface de Fuzzi�cation ;
� Un mécanisme d'inférence (règles) ;
� Une interface de Défuzzi�cation.
17
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Controleur �oux1x2
y
Mécanisme d'inférenceFuzzi�cationx1x2 Defuzzi�cation y
Figure 1.6: Structure interne d'un système d'inférence �oue.
3.2.1 Fuzzi�cation
La fuzzi�cation est la traduction des valeurs numériques relatives aux entrées du sys-
tème en termes d'appartenances à des sous ensembles �ous pour pouvoir appliquer les
règles. A une variable, nous associons les degrés d'appartenances correspondant à chaque
sous ensemble �ou (ce qui dépend bien sur de la description �oue adoptée) (Klir and
Yuan, 1995).
3.2.2 Inférence �oue
L'inférence �oue est l'application de la caractérisation symbolique du système aux
règles �oues et la déduction d'un certain nombre de résultats locaux ; également exprimés
sous forme symbolique concernant les variables de sortie du système. Le but de cette étape
est d'arriver à déterminer des sorties �oues ; en partant d'entrées �oues et en utilisant une
base de règles (Wang, 1994).
Pour pouvoir utiliser cette base de règles, nous avons besoin de trois opérateurs, ma-
thématiques, pour réaliser la conjonction (ET), l'implication (Si . . . Alors) et l'agrégation
(Sinon).
3.2.3 Défuzzi�cation
Elle a pour but l'obtention d'une valeur numérique pour chaque variable de sortie à
partir des valeurs de sortie des di�érentes règles. Parmi les nombreuses possibilités pour
réaliser cette étape, nous pouvons citer (Rajasekaran and Pai, 2003) :
� La méthode du centre de gravité :
C'est la méthode de défuzzi�cation la plus courante. L'abscisse du centre de gravité
de la fonction d'appartenance résultant de l'inférence correspond à la valeur de sortie
du régulateur.
y0 =
n∑i=1
Ui(yi)yi(i)
n∑i=1
Ui(yi)(1.15)
18
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Il apparaît que plus la fonction d'appartenance résultante est compliquée, plus le
processus de défuzzi�cation devient long et coûteux en temps de calcul (Wang,
1994).
� La méthode de la moyenne des maxima :
Les points ou la fonction d'appartenance résultante atteint son maximum sont
concernés.
y0 =l∑
i=1
yil
(1.16)
3.3 Contrôleurs �ous
La commande �oue est une application de la logique �oue au contrôle des systèmes
dynamiques pour lesquels nous ne possédons pas de modèle satisfaisant. Son principe est
simple, il s'agit dans la plupart des cas d'imiter le comportement d'un opérateur humain
dans la régulation d'un processus complexe à l'aide de règles �oues. Cette méthode de
conduite de processus est mise en ÷uvre grâce à un dispositif appelé usuellement "contrô-
leur �ou".
Un contrôleur �ou est un système d'inférence �ou employé dans la technique d'automati-
sation. Son but est de trouver une valeur numérique à appliquer au système à partir d'un
jeu de variables physiques. Les principaux types de contrôleurs qui ont été développés
portent le nom des chercheurs qui les ont proposé, il s'agit du contrôleur de Mamdani et
du contrôleur de Sugeno. Pour exposer le principe de fonctionnement de chacun d'eux,
nous considérons l'exemple d'une base de règles de la forme (Wang, 1994) :
Règle i : si x1 est Ai et x2 est Bi Alors y est Ci. Où Ai, Bi et Ci sont des sous-ensembles
�ous.
3.3.1 Méthode de Mamdani
La méthode de Mamdani est historiquement la première à avoir été proposée, elle
repose sur le raisonnement suivant (Mamdani and Assilian, 1975) :
� Calcul de la valeur de vérité de chaque règle :
αi(x) = Min(UAi(x1), UBi
(x2)) (1.17)
� Calcul de la contribution de chaque règle :
αi(y) = Min(αi(x), UCi(y)) (1.18)
� L'agrégation des règles :
α(y) = Max(αi(y)) (1.19)
� La défuzzi�cation pour obtenir une conclusion � nette �.
19
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
3.3.2 Méthode de Takagi-Sugeno
Cette méthode a été proposée par Takagi-Sugeno (Takagi and Sugeno, 1985), elle se
caractérise par une sortie non �oue des règles. A chaque règle, nous associons une sortie
dé�nie sous forme numérique comme étant une combinaison linéaire des entrées. Les règles
utilisées d'ordre zéro sont du type
Règle i : si x1 est A1 et x2 est A2 et ... xn est An et Alors yi = C1x1 + C2x2...+ Cnxn.
où les valeurs Cj sont des valeurs réelles (non �oues).
Cette méthode se base sur le raisonnement suivant :
� Calcul de la valeur de vérité de chaque règle :
αi =n∏j=1
Aj (1.20)
� Calcul de la sortie du système d'inférence �ou :
y =
n∑i=1
αiyi
n∑i=1
αi
(1.21)
αi représente ici le degré de vérité de chaque règle. Les systèmes d'inférence �ou de
type Sugeno permettent une meilleure représentation des fonctions numériques et des
mécanismes d'inférence plus rapides (Takagi and Sugeno, 1985).
Il a été montré expérimentalement que, pour un objectif de commande de processus,
la méthode de Sugeno donnait des résultats très voisins de celle de Mamdani tout en
permettant une réduction sensible du temps de calcul (Klir and Yuan, 1995).
4 Optimisation et Algorithmes évolutionnaires
4.1 Optimisation
4.1.1 Dé�nition
L'optimisation est l'art de comprendre un problème réel, de pouvoir le transformer
en un modèle mathématique que nous pouvons étudier a�n d'en extraire les propriétés
structurelles et de caractériser les solutions du problème (Paschos, 2005).
4.1.2 Problème d'optimisation
Un problème d'optimisation consiste à trouver parmi un ensemble de solutions po-
tentielles celle qui répond le mieux à certains critères décrits sous forme d'une fonction
objectif à maximiser ou minimiser.
20
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Mathématiquement, un problème d'optimisation s'écrit sous la forme :
Minimiserfi(x), i = (1, . . .M)
x ∈ Rnavec x = (x1, x2 . . . xn)
Sujet à
Υj(x) = 0, j = (1, . . . J)
Ψk(x) ≤ 0, k = (1, . . . K)
(1.22)
x est un vecteur à éléments réels ou entiers de dimension n. Ses composantes xi sont
appelées variables de décision, elles peuvent être continues ou discrètes, dans ce dernier cas,
nous parlerons alors d'optimisation combinatoire. Les valeurs possibles des xi représentent
l'espace de recherche noté S dans Rn.
La fonction fi(x) avec (i = 1, 2, . . . ,M) est appelée la fonction coût, la fonction éco-
nomique ou la fonction objectif. Elle attribue à chaque instance de l'espace de recherche
une valeur. Les inégalités Υj et Ψk sont appelées les contraintes du problème, qui peuvent
être linéaires ou non linéaires.
Pour un problème de minimisation, l'objectif est de rechercher les vecteurs qui mini-
misent la fonction f tout en respectant les contraintes représentées par les fonctions Υj
et Ψk.
Si M = 1, le problème est un problème d'optimisation mono-objectif et si K = J = 0,
le problème étudié serait un problème d'optimisation sans contraintes. Dans ce type de
problèmes, l'optimisation peut s'e�ectuer en tout point de l'espace de recherche.
Les problèmes qui n'ont pas de critère d'optimisation, mais qui possèdent un ensemble
de contraintes sont des problèmes de satisfaction de contraintes.
L'ajout d'un critère à un problème d'optimisation mono-objectif crée un problème
d'optimisation combinatoire avec contraintes. Ce dernier est très important puisque la
majorité des problèmes d'optimisation le sont.
Un problème d'optimisation se dé�nit alors comme la recherche de l'optimum d'une
fonction donnée. Les variables de cette fonction sont souvent contraintes d'évoluer dans
une certaine partie de l'espace de recherche (Mitchell, 1998). Cette fonction a des optima
locaux et globaux :
• Le voisinage d'une solution x est un sous-ensemble de solutions appartenant à S
(l'ensemble des solutions possibles) atteignable à partir d'une transformation V (x).
Nous pouvons dire qu'une solution x′ est voisine d'une solution x, si x′ ∈ V (x).
L'application V est appelée structure de voisinage.
• Un point x∗ est appelé minimum global de la fonction f si :
∀x, x 6= x∗ ⇒ f(x∗) < f(x)
• Un point x∗ est appelé minimum local fort de la fonction f si (Paschos, 2005) :
∀x ∈ V (x∗), x 6= x∗ ⇒ f(x∗) < f(x)
21
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
• Un point x∗ est appelé minimum local faible de la fonction f si (cf. Figure 1.7) :
∀x ∈ xV (x∗), x 6= x∗ ⇒ f(x∗) ≤ f(x)
Il est à noter que pour les problèmes de maximisation, il su�t de multiplier la fonction
coût par (-1).
4.2 Méthodes d'optimisation
Généralement, pour résoudre un problème d'optimisation combinatoire, nous utilisons
les méthodes exactes mais lorsque nous sommes confrontés à un problème di�cile nous
avons recours aux méthodes approchées, dans ce cas le choix est parfois possible entre
une heuristique spécialisée, dédiée au problème considéré, et une méta-heuristique qui est
une méthode générale (Mitchell, 1998).
Parmi les méta-heuristiques, nous pouvons di�érencier les méta-heuristiques à base de
voisinage, et les méta-heuristiques à base de population et en�n les méthodes hybrides
qui associent souvent une méta-heuristique et une méthode locale.
x
f(x)
Minimum local
Minimum global
Figure 1.7: Optimum local et global d'une fonction.
4.2.1 Méthodes exactes
Les méthodes exactes sont des méthodes qui garantissent la complétude de la résolu-
tion. Autrement dit ces méthodes donnent à tous les coups la solution optimale. Le temps
de calcul nécessaire de telles méthodes augmente en général exponentiellement avec la
taille du problème à résoudre. Il faut être conscient que ces méthodes peuvent prendre
beaucoup de temps, surtout lorsque les problèmes sont de grande taille (Paschos, 2005).
22
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
4.2.2 Méthodes approchées
Contrairement aux méthodes exactes, les méthodes approchées ne procurent pas forcé-
ment une solution optimale, mais seulement une bonne solution (de qualité raisonnable)
en un temps de calcul aussi faible que possible. Une partie importante des méthodes
approchées est désignée sous le terme de méta-heuristiques qui sont des méthodes gé-
nériques pouvant optimiser une large gamme de problèmes di�érents, sans nécessiter de
changements profonds dans l'algorithme employé (Mitchell, 1998).
Plusieurs classi�cations des méta-heuristiques ont été proposées ; la plupart distinguent
globalement entre trois catégories : les méthodes à base de solution courante unique, qui
travaillent sur un seul point de l'espace de recherche à un instant donné, appelées méthodes
à base de voisinage comme la méthode de la descente, le recuit simulé et la recherche tabou,
et les méthodes à base de population, qui travaillent sur un ensemble de points de l'espace
de recherche, comme les algorithmes évolutionnaires et les colonies de fourmis. En�n, les
méthodes hybrides (Mitchell, 1998)(cf. Figure 1.8).
4.2.3 Méthodes à base de voisinage
Dans les problèmes d'optimisation où nous cherchons à optimiser une fonction objectif
sur un espace de recherche donné, une petite perturbation sur un point de cet espace induit
souvent une petite variation des valeurs de la fonction objectif en ce point. Sachant que les
bonnes solutions sont souvent dans le voisinage d'autres bonnes solutions, l'idée est qu'une
bonne stratégie consisterait à se déplacer à travers l'espace de recherche en e�ectuant de
petits pas dans des directions qui améliorent la fonction objectif. Cette idée est la base
d'une grande famille d'algorithmes appelée méthodes à base de voisinage ou de recherche
locale (Paschos, 2005).
Ces méthodes s'appuient toutes sur un même principe : elles résolvent le problème
d'optimisation de manière itérative. Elles débutent avec une solution initiale (souvent
un tirage aléatoire dans l'espace de recherche), et réalisent ensuite un processus itératif
qui consiste à e�ectuer un mouvement choisi par le mécanisme d'exploration en tenant
compte de la fonction coût. Ce processus s'arrête et retourne la meilleure solution trouvée
quand la condition d'arrêt est réalisée. Cette condition peut porter sur le nombre d'essais
e�ectués, sur une limite temporelle ou sur le degré de qualité de la meilleure con�guration
courante. Cette versatilité permet de contrôler le temps de calcul, la qualité de la solution
optimale trouvée s'améliorant au cours du temps.
Les méthodes de voisinage di�èrent essentiellement entre elle par le voisinage utilisé
et la stratégie de parcours de ce voisinage (Mitchell, 1998).
23
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Méta-heuristiques
Méthodes de voisinageMéthodes
à base de populationsMéthodes hybrides
Figure 1.8: Classi�cation des méta-heuristiques.
4.2.4 Méthodes à base de population
Dans le domaine de l'optimisation combinatoire, la complexité des phénomènes natu-
rels a servi de modèle pour des algorithmes toujours plus sophistiqués constituant ainsi
la base d'un nouveau champ de la programmation informatique en pleine e�ervescence.
Les méthodes à base de population comme leur nom l'indique, travaillent sur une
population de solutions et non pas sur une solution unique comme dans les méthodes à
base de voisinage. Nous pouvons distinguer deux grandes classes de ces techniques :
• Les algorithmes évolutionnaires inspirés des concepts issus de la théorie de l'évolu-
tion naturelle de Darwin, un exemple typique de ces algorithmes nous trouvons les
algorithmes génétiques.
• Les algorithmes inspirés de l'éthologie (l'étude du comportement des diverses espèces
animales) comme les colonies de fourmis (Mitchell, 1998).
4.2.5 Méthodes hybrides
Le mode d'hybridation qui semble le plus fécond concerne la combinaison entre les
méthodes de voisinage et les approches d'évolution. L'idée essentielle de cette hybridation
consiste à exploiter pleinement la puissance de recherche des méthodes de voisinage et de
recombinaison des algorithmes évolutifs sur une population de solutions.
Un tel algorithme utilise une ou plusieurs méthodes de voisinage sur les individus
de la population pendant un certain nombre d'itérations ou jusqu'à la découverte d'un
ensemble d'optima locaux et invoque ensuite un mécanisme de recombinaison pour créer
de nouveaux individus (Jog et al., 1991).
Les algorithmes hybrides sont sans doute parmi les méthodes les plus puissantes.
Malheureusement, les temps de calcul nécessaires peuvent devenir prohibitifs à cause du
nombre d'individus manipulés dans la population. Une voie pour résoudre ce problème
est la parallélisation de ces algorithmes sur des machines parallèles ou sur des systèmes
distribués (Verhoeven and Aarts, 1995).
24
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
5 Algorithmes évolutionnaires
Les algorithmes évolutionnaires (Evolutionnary algorithms) sont des techniques d'op-
timisation stochastiques itératives, inspirées de la théorie de l'évolution naturelle de Dar-
win pour résoudre des problèmes divers, souvent d'optimisation. Ils simulent un processus
d'évolution sur une population d'individus, dans le but de les faire évoluer vers les optima
globaux du problème considéré (Paschos, 2005).
Le fonctionnement d'un algorithme évolutinnaire repose sur trois composants :
1- Une population constituée de plusieurs individus représentant des solutions candi-
dates du problème d'optimisation.
2- Une fonction d'adaptation pour évaluer la performance d'un individu (fonction
coût).
3- Un mécanisme d'évolution de la population composé de plusieurs opérateurs de
modi�cation et de sélection permettant d'éliminer certains individus et d'en créer de
nouveaux.
Le cycle d'évolution d'un algorithme évolutionnaire débute avec une population initiale
générée de façon aléatoire puis répète la procédure suivante (cf. Figure 1.9) :
1- Mesurer la qualité de chaque individu de la population par le mécanisme d'évalua-
tion,
2- Sélectionner une partie des individus,
3- Produire de nouveaux individus par recombinaisons des individus sélectionnés (Mé-
canisme d'évolution).
Ce processus se termine quand la condition d'arrêt est véri�ée (Mitchell, 1998).
D'une manière générale, nous pouvons distinguer trois grandes classes d'algorithmes
évolutionnaires : les algorithmes génétiques, la programmation évolutive et les stratégies
d'évolution. Ces méthodes se di�érencient par leur manière de représenter l'information
et par leur façon de faire évoluer la population d'une génération à l'autre.
5.1 Importance de la diversité
Dans le cas de certains problèmes di�ciles, l'algorithme peut très bien ne jamais
converger vers une solution satisfaisante. Soit parce que celle-ci est trop di�cile à atteindre
(temps de convergence in�ni), soit parce que l'algorithme converge prématurément vers
un optimum local et ne peut plus sortir.
Pour pallier à ce problème, plusieurs idées ont été implémentées. L'une d'elles est
l'introduction d'un objectif de diversité soit en sélectionnant les solutions sur un critère de
nouveauté seulement où en optimisant un critère de diversité en même temps que la �tness.
Ceci est possible en utilisant un algorithme évolutionnaire multi-objectifs (Mitchell, 1998).
25
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Génération de la
Population initiale
Evaluation
Arrêt ?
Sélection
Fin
Evolution
Non
Oui
Figure 1.9: Principe général d'un algorithme évolutionnaire.
5.2 Exploitation et exploration
Les performances des algorithmes évolutionnaires sont conditionnées par les notions de
l'exploitation et de l'exploration et comment trouver un bon compromis entre elles (Cre-
pinsek et al., 2013).
• L'exploitation (Intensi�cation) insiste sur la capacité d'une méthode de voisinage
d'examiner en profondeur des zones de recherche particulières.
• L'exploration (Diversi�cation) met en avant la capacité de découvrir de nouvelles
parties prometteuses de l'espace de recherche.
Les méthodes de voisinage reposent sur l'hypothèse que les zones les plus prometteuses
sont situées à proximité des meilleures solutions (déjà visitées). Le principe d'exploitation
consiste à examiner en priorité ces zones (Crepinsek et al., 2013).
Dans les algorithmes évolutionnaires, la sélection a pour e�et de concentrer la recherche
autour des con�gurations de meilleure performance.
L'application du seul principe d'exploitation ne permet pas une recherche e�cace. En
e�et, l'exploitation conduit à con�ner la recherche dans une zone limitée qui �nit par
s'épuiser. Une illustration souvent évoquée est fournie par le problème de convergence
prématurée des algorithmes évolutionnaires. Du fait de la sélection, la population �nit
par n'être constituée que d'individus tous similaires. L'une des préoccupations majeures
dans les algorithmes évolutionnaires consiste d'ailleurs à préserver le plus longtemps pos-
sible une diversité su�sante dans la population. Face à ce type de di�culté, la solution
26
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
consiste à diriger la poursuite de la recherche vers de nouvelles zones, i.e., recourir à
l'exploration (Crepinsek et al., 2013).
Pour cela, deux stratégies principales sont employées dans le but d'explorer un espace
de recherche :
La première stratégie qui est aussi la plus simple consiste à introduire des perturbations
aléatoires : c'est le cas pour les mutations aléatoires dans les algorithmes génétiques ainsi
que pour la génération aléatoire d'un voisin.
La deuxième stratégie pour explorer consiste à mémoriser au cours de la recherche des
caractéristiques des régions visitées et à introduire un mécanisme permettant de s'éloigner
de ces zones. C'est ce que fait la méthode tabou avec la liste tabou.
La recombinaison constitue un autre principe général qui complète l'exploitation et
l'exploration. Elle consiste à construire de nouvelles con�gurations en combinant la struc-
ture de deux ou plusieurs bonnes con�gurations déjà trouvées (Crepinsek et al., 2013).
6 Commande des systèmes non linéaires
6.1 Représentation des systèmes non-linéaires
Un phénomène est dit non linéaire lorsque ses grandeurs caractéristiques reliées entre
elles ne varient pas proportionnellement l'une à l'autre. Son comportement peut alors
être décrit par une expression, un modèle ou des équations faisant intervenir les variables
autrement qu'au premier degré (Slotine and Li, 1991).
Aucun système physique n'est complètement linéaire, les méthodes linéaires ne sont
donc applicables que dans un domaine de fonctionnement restreint. Certains systèmes
sont impossibles à modéliser, même localement, à des systèmes linéaires (Slotine and Li,
1991).
La représentation générale d'un système non linéaire est de la forme (1.23) :{x = f(x) + g(x)u(t)
y = h(x)(1.23)
Où y est la sortie du système, x est le vecteur d'état et u est le vecteur de commande.
f(x), g(x) et h(x) sont des fonctions non linéaires du vecteur d'état décrivant le sys-
tème (Lewis et al., 1993).
6.2 Commande des systèmes
La commande est l'ensemble des opérations qui amènent automatiquement un procédé
d'un état particulier à un autre état désiré yd(t) (Lewis et al., 1993).
Un système commandé est soumis à des perturbations et à des variations de paramètres,
tel que les frottements, vent, ou des bruits de mesure (cf. Figure 1.10).
27
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Les signaux utilisés dans la �gure sont :
• yd(t) : consigne ou signal de référence (reference).
• y(t) : signal de sortie ou réponse (plant output).
• e(t) : erreur de suivi (controller input/tracking error).
• u(t) : signal de commande (controller output)
• we(t) : perturbation de la commande (plant input disturbance).
• ws(t) : perturbation de la sortie (plant output disturbance).
• n(t) : bruit de mesure (measurement noise).
Si la consigne yd(t) est constante dans le temps, nous parlerons de régulation sinon la
commande est un asservissement ou poursuite de trajectoires.
La commande d'un système a pour objectif d'atteindre les performances suivantes :
1. Stabilité Nous disons d'un système qu'il est stable si à toute entrée bornée (en
amplitude) il répond par une sortie bornée (Slotine and Li, 1991).
2. Robustesse
Elle est sans doute le paramètre le plus important et le plus délicat. Nous disons
qu'un système est robuste si la régulation fonctionne toujours même si le modèle
change un peu. Un régulateur doit être capable d'assurer sa tâche même avec ces
changements a�n de s'adapter à des usages non prévus/testés (dérive de production,
vieillissement mécanique, environnements extrêmes) (Johnson and Moradi, 2005).
3. Rapidité
Elle dépend du temps de montée et du temps d'établissement du régime stationnaire.
• Temps de réponse (Tr) : Théoriquement, le temps de réponse est le temps
nécessaire pour que le régime transitoire ait totalement disparu. Toutefois en
pratique, nous convenons, en fonction de la précision exigée que c'est le temps
au bout duquel la réponse du système pénètre dans le couloir de plus ou moins
5% de la valeur �nale sans en sortir (Johnson and Moradi, 2005).
• Temps de montée (Tm) : Temps pour lequel la réponse atteint pour la première
fois la valeur �nale. Il caractérise la vitesse de réaction du système aux premiers
instants (Johnson and Moradi, 2005).
4. Précision
Elle est caractérisée par :
• Erreur statique (es(t)) : Elle est dé�nit par l'écart entre la consigne et la sortie
lorsque le système est en régime stationnaire (t → ∞) (Johnson and Moradi,
2005).
28
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
es(t) = limt→∞
(y(t)− yd(t)). (1.24)
• Dépassement (Omax) : en pratique il est recommandé pour avoir un système
�agile� un dépassement de 10% (Johnson and Moradi, 2005).
Omax =ymax − y∞ymax
. (1.25)
Commande∑
Système∑
∑
u(t)
we(t) ws(t)
n(t)
yd(t) e(t) y(t)
−
Figure 1.10: Bloc de commande d'un système non linéaire.
6.2.1 Commande proportionnelle, intégrale et dérivée
La commande proportionnelle, intégrale et dérivée (PID) est une méthode de régula-
tion souvent employée pour les asservissements (cf. Figure 1.11). Les applications du PID
sont extrêmement nombreuses et variées et surtout dans les procédés industriels (John-
son and Moradi, 2005). La commande PID est la somme de trois actions, proportionnelle,
intégrale et dérivée, elle est donnée par la relation (1.26) :
u(t) = Kpe(t) +Kde(t) +Ki
∫e(t)dt. (1.26)
Kp, Kd et Ki sont des gains constants à déterminer.
yd(t)I Ki
∫e(t)dt
P Kpe(t)
D Kde(t)dt
∑e(t)+
+
+
Systèmeu(t) y(t)
−
Figure 1.11: Architecture d'un contrôleur PID.
29
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Réglage d'un PID :
Il consiste à déterminer les gains du PID a�n d'obtenir une réponse adéquate du
procédé, l'objectif est d'être robuste, rapide et précis. Il faut pour cela diminuer le temps
de montée, éliminer l'erreur statique et diminuer le dépassement maximum (Johnson and
Moradi, 2005). L'in�uence des trois gains d'un PID sur ces performances est représentée
dans la Table 1.1 (Johnson and Moradi, 2005).
Il existe des méthodes analytiques permettant de calculer les composantes du correc-
teur PID, mais elles sont assez complexes et sont peu utilisées pour les systèmes non
linéaires.
Des méthodes empiriques existent pour les systèmes linéaire et elles permettent de
faciliter amplement la détermination des gains du régulateur PID comme la méthode de
Ziegler-Nichols et méthode de Chien-Hrones Reswick. Le problème est que ces méthodes
n'ont pas prouvé leurs e�cacité pour les systèmes non-linéaires (Johnson and Moradi,
2005).
Table 1.1: Paramètres du PID
Paramètre Temps de montée Dépassement Temps de réponse Erreur Statique
Kp Augmente N'in�ue pas Augmente Diminuée
Ki Diminue Augmente Augmente Élimine
Kd N'in�ue pas Diminue Diminue N'in�ue pas
6.2.2 Commande sliding mode
La commande sliding mode est une stratégie de commande à structure variable (Slotine
and Li, 1991). Le principe de ce type de commande consiste à ramener la trajectoire d'état
vers une surface et de la faire évoluer au dessus avec une certaine dynamique jusqu'au
point d'équilibre. La surface considérée est alors désignée comme étant la surface de
glissement ou de commutation. Le comportement dynamique résultant, appelé régime
glissant idéal, est complètement déterminé par les paramètres et les équations dé�nissant
la surface. L'avantage d'obtenir un tel comportement est double : d'un côté, nous avons
une réduction de l'ordre du système, et d'autre part, le régime glissant est insensible aux
perturbations intervenant dans les mêmes directions que les entrées (Sha�ei, 2010).
Le principe de l'algorithme d'une commande sliding mode est indiqué dans la Figure 1.12
30
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
xd(t) Commande
équivalente
e(t)
Ksign(s)s = e+ λe
∑ue(t) +
uc(t)+
Système
f(x), g(x)
u(t) x(t)
−
Figure 1.12: Schéma de la commande sliding mode.
Synthèse de la commande sliding mode :
Considérant un système non linéaire avec perturbations décrit par l'équation (1.27) :
x = f(x) + g(x)u(t) + d(t). (1.27)
Avec x(t) :le vecteur d'état, f(x) et g(x) des fonctions non linéaires décrivant le système
et d(t) représente les perturbations externes.
L'objectif est de trouver une loi de commande tel que, étant donné une trajectoire désirée
xd(t), l'erreur de poursuite e(t) tend vers zéro malgré la présence des perturbations.
L'erreur de poursuite est dé�nie par (Slotine and Li, 1991) :
e(t) = x(t)− xd(t). (1.28)
Slotine (Slotine and Li, 1991) a proposé une forme générale qui consiste à dé�nir une
fonction scalaire des surfaces de glissement dans le plan de phase dans le but d'assurer la
convergence d'une variable d'état x(t) vers sa valeur de consigne xd(t). Cette fonction est
donnée par l'équation :
s = e+ λe (1.29)
où λ est un scalaire qui représente la pente de la surface de glissement.
Une fois la fonction de commutation établie, le problème de la poursuite nécessite la
conception d'une loi de commande tel que le vecteur d'erreur e(t) reste sur la surface de
glissement s = 0 pour tout t ≥ 0 (Slotine and Li, 1991).
La loi de commande par mode glissant est alors dé�nit par l'addition de deux com-
mandes, la commande équivalente ue(t) et la commande corrective uc(t) (Équation (1.30)) :
u(t) = ue(t) + uc(t) (1.30)
31
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Commande équivalente La commande continue, déduite de s = 0, est appelée com-
mande équivalente ue. Son rôle est de ramener le système vers la surface de glissement,
elle est donnée par la relation (1.31) (Slotine and Li, 1991) :
ue(t) =1
g(x)[−f(x) + xd(t)− λx(t) + λxd(t)− d(t)] (1.31)
Commande corrective La commande corrective est responsable de garder le système
sur la surface s, elle est donnée par la relation suivante (Slotine and Li, 1991) :
uc(t) = −K.sign(s) (1.32)
Sachant que sign(.) est la fonction signe et K est une constante positive qui représente le
gain de la commande discontinue. Il est choisi assez grand pour compenser les perturba-
tions d(t).
6.2.3 Limites de la commande sliding mode
La commande sliding mode sou�re de deux inconvénients majeurs :
• La connaissance exacte et à priori du modèle du système est nécessaire pour obtenir
de bonnes performances de la commande. En e�et, la partie équivalente de la com-
mande sliding mode a pour rôle de ramener le système vers la surface, cette partie
est constituée essentiellement des fonctions non linéaires du modèle f(x) et g(x) (cf.
Équation (1.31)).
Si le système présente des incertitudes ou des variations dans les paramètres, les
performances de la commande équivalente se trouveront diminuées (Slotine and Li,
1991).
• L'utilisation du terme sign(.) dans le signal de commutation avec de grandes valeurs
du gain K (Équation (1.32)) provoque le phénomène de chattering qui peut exciter
les hautes fréquences et détériorer le système commandé. Ce phénomène est présenté
dans la Figure 1.13.
Une méthode qui permet de réduire l'e�et du chattering est de remplacer la fonction
discontinue sign par une fonction de saturation, qui consiste à déterminer une bande
limite autour de la surface de glissement ainsi assurant le lissage de la commande
et le maintient de l'état du système dans cette bande.
32
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
7 Intelligence computationnelle dans la commande
sliding mode
Plusieurs auteurs ont essayé de fusionner les techniques de l'intelligence computa-
tionnelle et la commande sliding mode a�n d'atténuer les problèmes rencontrés dans
les implémentations pratiques de la commande.
Trois techniques principales de l'intelligence computationnelle ont été combinées
avec la commande sliding mode : les réseaux de neurones, la logique �oue et les
algorithmes évolutionnaires en particulier les algorithmes génétiques.
s
e
e
Figure 1.13: Exemple de chattering.
7.1 Application des réseaux de neurones dans la commande sli-
ding mode
L'intégration des réseaux de neurones dans un contrôleur sliding mode peut être classée
en deux catégories principales :
1) Utilisation des réseaux de neurones dans la boucle de retour du contrôleur sliding
mode en parallèle pour calculer la commande équivalente ;
2) Utilisation des réseaux de neurones pour l'adaptation des paramètres de la com-
mande sliding mode.
7.1.1 Architectures parallèles
Dans la littérature, divers schémas sont proposés pour l'utilisation des réseaux de
neurones avec un contrôleur sliding mode soit en parallèle pour éliminer l'e�et chattering,
33
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
ou pour calculer la partie équivalente de la commande .
Néanmoins, seule une valeur approximative peut être calculée pour des systèmes connus
en partie ou incertains. Le calcul de la partie équivalente par réseaux de neurones peut
être une bonne solution pour ce genre de système. Dans la littérature, les architectures
suivantes sont utilisées en masse :
(A) Architecture Neuro-sliding mode : (Ertugrul and Kaynak, 2000) ont proposé
une approche Neuro-sliding mode control où deux réseaux neuronaux sont utilisés
en parallèle pour réaliser la commande équivalente et corrective de la commande
sliding mode (cf. Figure 1.14).
L'entrée du premier réseau est constituée de l'état désiré et la position actuelle
tandis que l'entrée du deuxième réseau est la surface s.
Réseau 1xd(t) ue(t)
∑Robot
y(t)
Réseau 2
Adaptation
u(t)
∑ e(t)−
+
uc(t) −+
Figure 1.14: Architecture neuro-sliding mode control (Ertugrul and Kaynak, 2000).
(B) Réseaux de neurones pour la commande équivalente du contrôleur sliding
mode :
L'utilisation d'un réseau de neurones pour le calcul du terme de la commande équi-
valente d'un contrôleur sliding mode est également proposée par (Jezernik et al.,
1997). Dans leur approche, représentée sur la Figure 1.15, un dispositif de com-
mande sliding mode inspiré de (Sabanovic et al., 1996) est utilisé en parallèle avec
un réseau de neurones pour obtenir une commande robuste. Les entrées du réseau
sont sélectionnées comme le sinus des positions angulaires désirées, les vitesses dé-
sirées, les erreurs en position, et les erreurs en vitesse.
Un algorithme d'apprentissage de type gradient est proposé pour adapter les poids
du réseau pour minimiser la fonction coût : J = 12(Ks+ s)2.
34
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Reseau
Estimateur
xd(t)
s+ λs
∑+Robot
x(t)
Feedback
u(t)
∑ e(t)
+
−
+
Figure 1.15: Architecture proposée par (Jezernik et al., 1997).
(C) Autres architectures neuronales :
Une autre architecture est proposée par (Kim and Oh, 1995) pour une classe des
systèmes dynamiques non linéaires. L'architecture de base est représentée sur la
Figure 1.16.
Le procédé utilise une architecture de commande hybride dans lequel le réseau de
neurones rapproche les non-linéarités à l'aide des données d'entrées-sorties et les
erreurs de suivi du système. Le contrôleur sliding mode utilisé en parallèle assure
la stabilité uniforme avant que le contrôleur neuronal a eu assez de temps pour
apprendre le système dynamique. Un contrôleur à retour d'état linéaire proportion-
nel et dérivé (PD) est également utilisé pour éviter l'e�et chattering du contrôleur
sliding mode.
PID
Sliding m
Réseau NN m-1
e(t)
+
++
Systemeu(t) x(t)
∑
Réseau NN
−
+
m
1-m
xd(t)
x(t)
Figure 1.16: Architecture proposée par (Kim and Oh, 1995).
35
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
7.1.2 Réseaux de neurones pour l'adaptation des paramètres du contrô-
leur
Dans cette section, un résumé est présenté des approches observées dans la litté-
rature sur l'utilisation des réseaux de neurones pour le réglage des paramètres du
contrôleur sliding mode tels que λ la pente de la surface de glissement et K le gain
du régulateur.
Un exemple est proposé par (Karakasoglu and Sundareshan, 1995) dans lequel un ré-
seau de neurones est d'abord formé à apprendre les dynamiques inverses du système
et utilisé ensuite comme un contrôleur latéral en cascade avec le système commandé
(cf. Figure 1.17).
Un réseau de neurones récurent avec une couche cachée est proposé pour ajuster le
gain du contrôleur pour maintenir le système sur la surface de glissement (Psaltis
et al., 1988).
xd(t)
G
+Réseau Réccurent Sliding mode
e(t)Robot
x(t)K u(t)
−
Figure 1.17: Architecture proposée par (Karakasoglu and Sundareshan, 1995).
7.2 Application de la logique �oue dans la commande sliding
mode
L'intégration d'un système �ou dans une commande sliding mode est considérée dans
de nombreux exemples où une tentative de résoudre les di�cultés de mise en ÷uvre de la
commande sliding mode est faite via l'ajout du système �ou.
Quelques architectures sont citées dans ce qui suit ou nous pouvons les classer en des
approches indirectes ou la logique �oue joue un rôle secondaire dans la conception du
contrôleur sliding mode et des approches directes ou le contrôleur sliding mode est conçu
sur la base d'un contrôleur �ou.
7.2.1 Approches indirectes
Dans les approches indirectes, la logique �oue est utilisée pour remplir une fonction
secondaire ( réglage des paramètres, élimination du chattering).
36
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
(A) Logique �oue pour le réglage des paramètres de la commande sliding
mode :
Les e�ets des paramètres de conception sur les performances du système sont très
clairs. Par exemple, le paramètre λ détermine la pente de la surface de glissement
et, par conséquent, plus il est grand, plus rapide sera la réponse du système , mais
une trop grande valeur de ce paramètre peut entraîner l'instabilité.
(Erbatur et al., 1996) ont suivi une telle approche pour le contrôle de trajectoire d'un
robot manipulateur. Les entrées du contrôleur �oue utilisé sont la valeur absolue de
l'erreur de position, la valeur absolue de la surface de glissement s, et une variable
dé�nie comme la variation cumulative du chattering. Le système d'adaptation �oue
délivre les valeurs de λ et le gain K.
Dans (Choi and Kim, 1997) un contrôleur sliding mode �oue à temps discret est mis
en ÷uvre pour le contrôle des vibrations avec un actionneur à �lm piézoélectrique.
(B) Logique �oue pour la modélisation des incertitudes :
Un certain nombre de chercheurs ont proposé d'utiliser la logique �oue dans ce
contexte.
Par exemple, dans (Chen and Chen, 1998), une architecture �oue est utilisée de
façon adaptative pour modéliser les non-linéarités des systèmes qui ont des incerti-
tudes inconnues.
Dans le schéma proposé, la limite de l'erreur de modélisation qui résulte de l'erreur
entre le système �ou et le système non linéaire réel (pendule inversé) est identi�ée
d'une manière adaptative. En utilisant cette borne, un signal de commande sliding
mode est calculé. L'approche proposée dans (Yu et al., 1998) est similaire.
L'utilisation des approximateurs �ous (Wang, 1994) dans la modélisation des in-
certitudes est également connue dans la littérature. Par exemple, dans (Yoo and
Ham, 1998), deux contrôleurs adaptatifs sliding modes avec deux systèmes �ous
(approximateurs)sont conçus.
(C) Complémentarité entre un contrôleur �ou et un contrôleur sliding mode :
Certaines approches observées dans la littérature comprennent des systèmes �ous
comme contrôleurs complémentaires aux contrôleurs sliding mode. Tout d'abord, la
commande sliding mode est conçue, ensuite, un contrôleur �ou supplémentaire est
utilisé pour améliorer les performances et éliminer le chattering.
Dans (Ha, 1996), un tel régime est présenté pour les systèmes linéarisés sou�rant
d'incertitudes, un contrôleur sliding mode combiné avec un contrôleur �ou est utilisé
pour compenser l'in�uence de la dynamique non modélisée et le chattering.
L'approche dans (Ha, 1996) est généralisée à une classe de systèmes non-linéaire
dans (Ha, 1997) où les simulations sur un robot manipulateur sont présentées.
37
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
7.2.2 Approches directes
Une quantité appréciable de travail est vue dans la littérature, dans laquelle une tech-
nique intelligente est utilisée directement dans la conception d'un système de commande
sliding mode.
Dans certaines de ces approches, la base des règles est construite sur les variables s et
s (la dérivée de s). Ces approches sont utilisées pour conduire les états du système à
une surface de glissement. Dans (Hwang and Lin, 1992), les auteurs ont proposé cette
approche pour la conception d'un contrôleur sliding mode �ou. Les entrées du contrôleur
�ou proposé sont fuzzi�ées à partir de s et s et la sortie est ∆u (changement de u).
7.3 Réglage des paramètres du contrôleur sliding mode avec les
algorithmes génétiques
Les algorithmes génétiques ont été utilisés pour le réglage et l'optimisation des para-
mètres du contrôleur sliding mode.
Par exemple (Li et al., 1996) décrit les di�cultés dans la conception de la commande
sliding mode et donne des directives sur l'utilisation des algorithmes génétiques. Il pré-
sente en détail, deux exemples pratiques sur l'utilisation des algorithmes génétiques dans
la construction du contrôleur sliding mode.
Une structure sliding mode �oue est considérée dans (Lin and Chen, 1997) dans laquelle
les prémisses sont des ensembles �ous sur la variable de glissement et les conclusions sont
la sortie du contrôleurs. Deux méthodes de conception des contrôleurs sliding mode �ous
basées sur les algorithmes génétiques sont étudiées dans cette approche.
7.4 Synthèse de l'utilisation des réseaux RBF pour la commande
sliding mode
Les réseaux de neurones RBF ont été beaucoup utilisés pour la commande sliding
mode des systèmes non linéaires, soit pour estimer les paramètres incertains du modèle,
soit pour estimer la partie corrective de la commande. Une autre application de ces réseaux
est dans l'estimation de la borne des incertitudes et perturbations d(t).
Nous avons essayé de réaliser une synthèse non exhaustive de quelques unes de ces
applications dans la Table 1.2. La comparaison se porte sur les critères suivants :
(A) Estimation de la commande sliding mode par réseaux RBF.
(B) Estimation de la commande équivalente par les réseaux RBF.
(C) Estimation de la commande corrective par les réseaux RBF.
(D) Détermination du nombre de neurones N automatiquement.
(E) Utilisation d'un algorithme d'apprentissage en ligne.
38
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
(F) Robustesse envers les incertitudes.
(G) Élimination du chattering.
(H) Hybridation avec d'autres techniques de l'intelligence computationnelle.
En analysant la Table, nous pouvons ressortir avec les constatations suivantes :
• Le recours aux réseaux RBF pour la commande sliding mode a connu un nouveau
essor dans les trois dernières années surtout pour la commande des nouveaux sys-
tèmes (éolienne, robots bipèdes, navires, plateforme de forage).
• La majorité des auteurs ont choisi d'appliquer les RBF pour calculer la commande
équivalente en estimant les paramètres du modèle.
• Seulement 03 approches (3, 4 et 11) ont utilisé les réseau RBF pour calculer la com-
mande sliding mode globale en calculant la sortie du réseau u(t) en minimisant un
critère E = s.s.
• Toutes les approches avec un algorithme d'apprentissage en ligne, utilisent une règle
d'adaptation dérivée de l'algorithme rétro-propagation.
• Les approches 9 et 10 utilisent les réseaux RBF pour estimer la forme des incerti-
tudes au lieu d'estime les paramètres du modèle.
• Les approches comparées ont un seul inconvénient en commun, le nombre des neu-
rones est déterminé empiriquement, ce qui diminue les performances de la com-
mande.
39
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
Table1.2:
Synthèse
desapprochesslidingmodeavec
réseauxRBF.
NApproche
Contribution
(A)
(B)
(C)
(D)
(E)
(F)
(G)
(H)
1AdaptiveRBFnetwork
controlforrobotmanipulators,(Fateh
etal.,2014)
Estim
erlesincertitudes
avec
un
RBF(1)1
−+
−−
++
+−
2RBFneuralnetwork
basedslidingmodecontrolofalower
limb
exoskeletonsuit,(Songetal.,2014)
RBF(5)pourestimer
legainK
−−
+−
−−
+−
3Adaptiveneuralnetwork
motioncontrolofmanipulators
with
experim
entalevaluations,(PugaGuzmanetal.,2014)
RBF(20)pourestimer
lacom-
mandeu
+−
−−
+−
+−
4Adaptiveneuralslidingmodecontrolofactivepow
er�lter,(Fei
andWang,2013)
Estim
ela
commandeuparRBF
àbase
deRP
+−
−−
−+
−−
5RBFneuralnetwork
ofslidingmodecontrolfortime-varying
2-dofparallel
manipulatorsystem
,(C
henandWo,2013)
modèleestiméparRBFet
fonc-
tionsatpouruc
−+
+−
−+
+−
6Slidingmodeneuro
adaptivecontrolin
trajectory
trackingfor
mobilerobots,(Rossomandoetal.,2013)
Estim
erueqparRBF
−+
−−
++
+−
7Network-BasedNeuralAdaptiveSlidingModeController
for
theShip
SteeringProblem,(Xia
andWu,2013)
Estim
erueq
par
RBF(10),
uc
�ouesinécessaire
−+
−−
++
−−
8Neuralfuzzyslidingmodecontrolforarobotmanipulator,
(HuandLu,2012)
Estim
ermodèledynamiquepar
RBF(N
2 )−
+−
−+
++
+
9Adaptiveneuralnetwork
slidingmodecontrolbasedonpar-
ticlesw
arm
optimizationforrotary
steeringdrillingstabilized
platform
,(Zhangetal.,2012)
Estim
erla
borne
des
incerti-
tudes
parRBF(N
),optimiser
pa-
ramètresparPSO
−+
−−
−+
−+
10
TerminalSlidingModeControlforSTTMissileBasedonRBF
NeuralNetwork,(Shietal.,2012)
Estim
erlabornedes
incertitudes
parRBF(N
)−
+−
−−
++
−
11
RBF
neuralnetwork
slidingmodecontrolforvariable-speed
adjustable-pitch
system
ofwindturbine,(JiaoandWang,
2010)
Estim
erla
commandeu
par
RBF(N
)+
−−
−−
+−
−
12
ARBFneuralnetwork
slidingmodecontroller
forsm
aactua-
tor,(TaiandAhn,2010)
Estim
erueqparRBF(13),σest
déterminépark-m
eans
−+
−−
−+
+−
13
Anew
rbfnetwork
basedsliding-m
odecontrolofnonlinear
system
s,(B
eyhanandAlci,2009)
RBF(N
)pourestimer
ueq
par
Levenberg-M
arquardth
−+
−−
−+
−−
14
Internalmodel
controlofpm
synchronousmotorbasedonrbf
network
optimized
bygenetic
algorithm,(Lietal.,2007)
Optimiser
RBF(12)parlesAG
−+
−−
−−
++
15
Adaptiveneuralnetwork
basedfuzzyslidingmodecontrolof
robotmanipulator,(A
kandCansever,2006a)
ueqestimée
parRBF(N
)et
uc
�oue
−+
+−
++
++
Légende:
1unréseauRBFavec
unneuronecaché
2Nombre
des
neurones
estem
piriquemaispasmentionné.
−:Inconvénient,+
:Avantage.
40
Chapitre 1. Techniques de l'intelligence computationnelle et ses applications dans lacommande
8 Conclusion
Dans ce chapitre, nous avons présenté un état de l'art sur les techniques de l'intelligence
computationnelle en particulier les réseaux de neurones RBF, logique �oue et algorithmes
évolutionnaires. Nous avons aussi présenté le principe de la commande PID et la com-
mande sliding mode. Cette commande sou�re de quelques limites que les chercheurs ont
essayé de résoudre par les techniques intelligentes. La dernière section de ce chapitre a été
consacrée aux di�érentes architectures et applications de ces techniques. Une attention
particulière a été prêtée aux réseaux RBF dans la commande sliding mode des systèmes
non linéaires où une synthèse a été présentée en comparant quelques approches récentes.
Parmi les solutions aux problèmes de la commande sliding mode, la présente thèse se
concentre sur une solution à base de réseaux de neurones RBF. Les performances de cette
solution sont conditionnées par l'e�cacité de l'algorithme d'apprentissage.
Les chapitre 2 et 3 présentent une amélioration de deux algorithmes évolutionnaires
pour les utiliser ensuite pour l'apprentissage des réseaux de neurones RBF dans le chapitre
4. Le dernier chapitre détaillera un algorithme d'apprentissage en ligne et son utilisation
dans une architecture à base de réseaux RBF et logique �oue pour la commande sliding
mode.
Cette énumération des chapitres sort de l'ordinaire, mais elle est faite dans le souci
de montrer l'interaction du premier chapitre avec l'ensemble des autres chapitres (cf.
Figure 1).
41
Chapitre 2
Optimisation biogéographique basée sur
le modèle prédateur et proies amélioré
1 Introduction
L'optimisation est l'une des branches les plus importantes des mathématiques appli-
quées, elle a été le sujet de nombreuses recherches à la fois pratiques et théoriques. La
résolution d'un problème d'optimisation consiste à explorer un espace de recherche a�n
de minimiser (maximiser ) une fonction donnée.
Parmi ces problèmes les plus connus dans le domaine de l'automatique, nous citons
le problème de trouver la combinaison optimale des gains d'un contrôleur PID. Pour
résoudre ce problème et palier à la limite de la commande PID (Les gains sont ajustés
empiriquement), divers algorithmes inspirés de la nature ont été appliqués.
Depuis les algorithmes génétiques (AG) et Particules d'essaims (PSO) en passant par
les colonies de fourmis (ACO), Di�erential Evolution (DE) jusqu'aux algorithmes déve-
loppés récemment, comme les colonies d'abeilles arti�cielles (ABC) et l'optimisation par
la biogéographie (BBO). Une étude comparative de quelques approches méta-heuristiques
pour le problème de l'optimisation du PID est donnée dans (Nagaraj and Vijayakumar,
2011).
Nous avons essayer de dresser un résumé des récentes approches naturelles d'optimisa-
tion pour le réglage du contrôleur PID. La Table 2.1 représente pour chaque algorithme,
le système utilisé ainsi que l'algorithme comparé. La plupart des approche sont comparées
aux algorithmes génétiques et avec la méthode conventionnelle Ziegler Nichols.
L'optimisation basée sur la biogéographie (BBO) est parmi les algorithmes d'optimi-
sation les plus récents (Simon, 2008). Il est basé sur le mouvement des espèces entre les
écosystèmes à la recherche d'endroits habitables.
Ce chapitre est consacré à la présentation d'un algorithme hybride entre l'algorithme
BBO et le modèle prédateur et proies qui est un algorithme d'optimisation de voisinage.
L'objectif de cette hybridation est d'accroître l'e�et de la diversi�cation représenté dans
42
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
l'optimisation par la biogéographie (BBO) par l'opérateur de la mutation. L'algorithme
résultant a été appliqué pour l'optimisation des paramètres d'un contrôleur PID des sys-
tèmes non linéaires (Masse-Ressort-Amortisseur et pendule inversé).
Table 2.1: Méta-heuristiques pour l'optimisation d'un PID
Algo Approche Système Comparaison
AG (Kim, 2008) Système d'osmose inversé Ziegler-Nichols
(Yin et al., 2004) Système sous-amorti
(Zain et al., 2009) Bras manipulateur �exible
DE (Ruijun, 2009) Système de premier ordre PSO
(Youxin and Xiaoyi, 2010) Servo-moteur
ACO (Soundarrajan et al., 2010) Moteur à courant continu
(Berbaoui et al., 2011) Filtre actif
PSO (GirirajKumar et al., 2010) Perceuse Ziegler Nichol
(Solihin et al., 2011) Moteur DC Ziegler Nichol
(Lahoty and Parmar, 2013) Système FOPDT Ziegler Nichol, AG
ABC (Gozde et al., 2010) AVR
(Sundareswaran, 2008). Moteur à courant continu AG
BBO (Salem and Khel�, 2012) Pendule inversé AG
2 Optimisation basée sur la biogéographie
L'optimisation basée sur la biogéographie (BBO) est un algorithme stochastique d'op-
timisation motivé par les mécanismes de la migration des écosystèmes. Elle est inspirée
des modèles mathématiques de la biogéographie et elle a été initialement développée par
D. Simon (Simon, 2008). Cet algorithme appartient à une famille des algorithmes évolu-
tionnaires dont le but est d'obtenir une solution optimale à un problème d'optimisation
par un processus évolutionnaire.
2.1 Biogéographie
La Biogéographie est l'étude de la distribution de la biodiversité dans l'espace et dans
le temps, ce qui permet aux nombreuses espèces animales de migrer vers di�érents habitats
ou îles pour leur survie et une meilleure vie. La biogéographie a été étudiée dès le 19me
siècle par Alfred Wallace et Charles Darwin (Macarthur and Wilson, 1967).
Dans le début des années 60, (Macarthur and Wilson, 1967) ont développé les modèles
mathématiques de la biogéographie, ce qui lui permet de prospérer comme un important
domaine de recherche.
43
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
Dans la science de la biogéographie, une île est dé�nie comme la zone écologique
habitée par des plantes particulières ou d'espèces animales et géographiquement isolée
d'autres habitats. Chaque île a ses caractéristiques telles que la disponibilité alimentaire,
les précipitations, la température, la diversité des espèces, la sécurité, etc. (cf. Figure 2.1).
La qualité d'une île est mesurée par son indice d'adéquation (Suitability Index). Les
îles avec un indice élevé sont plus adaptées à la vie et ont donc une grande population
(Macarthur and Wilson, 1967).
Figure 2.1: Migration des espèces (Simon, 2008)
2.2 Optimisation et biogéographie
L'application de la biogéographie dans l'optimisation est un exemple d'un modèle
de processus naturel pour résoudre les problèmes d'optimisation. Ceci est similaire à ce
qui s'est passé dans les dernières décennies avec les algorithmes génétiques, réseaux de
neurones, les colonies de fourmis et d'autres domaines de l'intelligence informatique (Ma
et al., 2013).
L'optimisation par la biogéographie (BBO) utilise un vocabulaire similaire à celui de la
biogéographie (cf. Table 2.2) où chaque habitat est analogue à une solution du problème.
Les caractéristiques des solutions (variables de décision) sont appelées variables d'indice
d'adéquation (SIV). L'indice d'adéquation de l'habitat (HSI) est analogue au �tness qui
permet de mesurer l'adéquation de l'individu.
Les habitats avec un HSI élevé ont tendance à avoir un grand nombre d'espèces, un
taux d'immigration faible et un taux d'émigration élevé. Inversement, les habitats avec
un HSI faible ont un faible nombre d'espèces, un taux d'immigration élevé et un taux
d'émigration faible (Simon, 2008).
L'algorithme BBO nécessite l'emploi de certains termes dont il est utile de préciser la
dé�nition.
44
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
Table 2.2: Terminologie de la BBO
La Biogéographie Algorithme BBO
Habitat ou île Solution du problème
HSI Qualité de la solution (fonction coût)
SIV Les Variable du problème d'optimisation
2.2.1 Variable d'indice d'adéquation
Une variable d'indice d'adéquation (SIV ) est une variable entière, réelle où booléenne
qui caractérise l'habitabilité d'une île (Simon, 2008).
2.2.2 Habitat
Un habitat H est une solution du problème représentée généralement par un vecteur
initialisé aléatoirement par des variable d'indice d'adéquation. Il est noté (Simon, 2008) :
H = [SIV1, SIV2, . . . , SIVK ] (2.1)
2.2.3 Population
Une population est un ensemble de n habitats (Simon, 2008).
Pop = [H1, H2, . . . , Hn] (2.2)
2.2.4 Indice d'adéquation de l'habitat
Un indice d'adéquation de l'habitat (HSI) équivalant au �tness, associe une valeur
pour chaque individu. Cette valeur à pour but d'évaluer le degré d'adaptation d'un indi-
vidu à son environnement (Simon, 2008).
HSI = f(H) = f(SIV1, SIV2, ..., SIVK) (2.3)
2.2.5 Taux d'immigration
Le taux d'immigration λ(Hi) est le taux d'entrée des variables (SIV) à un habitat.
2.2.6 Taux d'émigration
Le taux d'émigration µ(Hi) est le taux de sortie des variables (SIV) d'un habitat.
45
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
Initialisationdes paramètres
Initialisation dela population
Évaluation de la HSI
Critère d'arrêt ? Solution optimale
Sélection
Migration
Mutation
Évaluer la HSI
Génération i + 1
Non
Oui
Figure 2.2: Organigramme général de l'algorithme BBO
2.3 Étapes de l'optimisation basée sur la biogéographie
L'organigramme fonctionnel présenté dans la Figure 2.2, illustre la structure générale
de l'algorithme BBO.
L'algorithme commence par initialiser les paramètres et la population initiale, il modi-
�e cette population par des opérateurs spéci�ques en construisant de nouvelles population
jusqu'à atteindre une qualité (HSI) meilleure qu'un seuil pré�xé ou un nombre maximal
de générations gmax.
2.3.1 Initialisation
Dans cette étape, nous dé�nissons les paramètres de contrôle (cf. Table 2.3) et nous
générons aléatoirement une population initiale de n habitats. La taille de cette population
reste constante tout le long de l'algorithme (Simon, 2008).
46
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
Table 2.3: Paramètres de la BBO
Paramètre Notation
n La taille de la population
gmax Le nombre de générations
I Le taux maximum possible d'immigration
E Le taux maximum possible d'émigration
mmax Le taux maximum de la mutation
smax Le nombre maximum des espèces dans l'habitat.
2.3.2 Évaluation de la fonction HSI
Pour évaluer la pertinence d'une solution par rapport à une autre, nous calculons la
valeur de la HSI correspondante à chaque solution candidate (Simon, 2008).
2.3.3 Sélection
Pour appliquer les opérateurs de l'algorithme BBO comme n'importe quel autre algo-
rithme évolutionnaire, nous devons sélectionner les habitats ou individus candidats à cet
opérateur.
La sélection est fondée sur la qualité des habitats, estimée à l'aide de fonction d'adap-
tation. Il existe plusieurs méthodes de sélection (Mitchell, 1998).
• Sélection par roulette
La population est représentée comme une roue de roulette, où chaque habitat est repré-
senté par une portion qui correspond proportionnellement à son valeur de HSI (�tness).
La sélection d'un individu se fait en tournant la roue. L'un des inconvénients de ce type
de sélection est de choisir presque toujours le même habitat s'il en existe un bien meilleur
que tous les autres, ce qui cause une perte de diversité dans la population (Miller and
Goldberg, 1995).
• Sélection par rang
La sélection par rang trie d'abord la population par HSI. Ensuite, chaque habitat se
voit associé un rang en fonction de son position. Ainsi le plus mauvais habitat aura le
rang 1, le suivant 2, et ainsi de suite jusqu'au meilleur habitat qui aura le rang n. La
sélection par rang d'un habitat est la même que par roulette, mais les proportions sont
en relation avec le rang plutôt qu'avec la valeur de l'évaluation. Avec cette méthode de
sélection, tous les habitats ont une chance d'être sélectionnés. Cependant, elle conduit à
une convergence plus lente vers la bonne solution. Ceci est dû au fait que les meilleurs
habitats ne di�èrent pas énormément des plus mauvais (Miller and Goldberg, 1995).
• Sélection par tournoi
47
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
La sélection par tournoi est l'une des sélections les plus utilisées dans les algorithmes
évolutionnaires. Le principe consiste à choisir un sous-ensemble d'individus (S individus)
aléatoirement dans la population, puis à sélectionner le meilleur individu dans ce groupe
en fonction de son HSI. Ce processus est répété jusqu'à l'obtention du nombre d'individus
requis (Miller and Goldberg, 1995). Le nombre de participants à un tournoi, appelé la
taille du tournoi, est utilisé pour faire varier la pression de cette sélection. Si ce nombre
est grand, alors la pression sera forte et les faibles individus auront une petite chance
d'être choisis. En général, un seul gagnant est choisi parmi les participants à un tournoi.
• Élitisme
A la création d'une nouvelle population, il y a de grandes chances que les meilleurs
habitats soient perdus après les opérations de migration et de mutation. Pour éviter cela,
nous utilisons la méthode d'élitisme. Elle consiste à copier un ou plusieurs des meilleurs
habitats dans la nouvelle génération. Ensuite, nous générons le reste de la population
selon le mécanisme de reproduction usuel.
L'opérateur de sélection est utilisé pour sélectionner des habitats pour appliquer les
deux opérateurs d'évolution : la migration et la mutation.
2.3.4 Opérateur de migration
La migration est un opérateur probabiliste utilisé pour modi�er chaque solution Hi
en partageant des caractéristiques parmi les di�érentes solutions. L'idée de l'opérateur de
migration est basée sur la migration en biogéographie, qui représente le mouvement des
espèces entre les di�érents habitats.
La probabilité qu'une solution est sélectionnée pour immigrer ou émigrer dépend de
son taux d'immigration λi ou le taux d'émigration µj (Ma et al., 2013).
Le processus de migration est dé�ni par la relation :
Hi(SIVk)← Hj(SIVk) (2.4)
L'équation (2.4) représente comment une caractéristique ou SIV d'une solution Hi est
remplacée par une caractéristique ou SIV d'une solution Hj par l'opération de migration.
Dans la BBO, chaque solution Hi a son propre taux d'immigration λi et taux d'émigra-
tion µi . Ces deux taux sont calculés par l'équation (2.5) et l'équation (2.6) respectivement.
λi = I(1− kin
) (2.5)
µi = E(kin
) (2.6)
I et E représentent les taux maximaux possibles d'immigration et d'émigration respecti-
vement.
48
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
ki représente le rang du ime habitat après le tri de tous les habitats en fonction de leur
HSI.
n représente la taille de la population. La Figure 2.3 illustre deux solutions candidates
S1 et S2 à un problème en utilisant des courbes d'immigration et d'émigration symétriques
(E = I).
S1 représente une mauvaise solution et S2 représente une meilleure solution. La probabilité
d'immigration pour S1 sera donc plus élevée que celle de S2 tandis que la probabilité
d'émigration pour S1 sera inférieure à la probabilité d'émigration pour S2 (Simon, 2008).
λ
µ
S1 Espèces S2
E = I
Taux
Smax
Figure 2.3: Illustration de deux solutions candidates S1 et S2
2.3.5 Opérateur de mutation
En plus de l'opérateur de migration, nous avons l'opérateur de mutation. La mutation
est un opérateur probabiliste utilisé pour modi�er un ou plusieurs SIV d'une solution sé-
lectionnée aléatoirement en se basant sur sa probabilité d'existence Pig pour la génération
g. Cet opérateur aide à introduire de nouvelles caractéristiques et augmente la diversité
dans la population (Simon, 2008).
La probabilité de mutation mi est calculée en fonction de la probabilité de la solution
exprimée dans l'équation (2.7).
mi = mmax(1−PigPmax
) (2.7)
où :
mi : Le taux de mutation pour l'habitat i.
mmax : Le taux maximum de mutation.
Pmax : La probabilité maximale d'existence.
Avant d'appliquer l'opérateur de la mutation, nous devons calculer Pig, la probabilité
d'existence de l'habitat i dans la génération actuelle g. Ce paramètre est calculé à partir
de sa valeur dans la génération précédente par l'équation (2.8).
Pig = Pig−1 + Pig (2.8)
49
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
Les valeurs de Pi avant le début de l'algorithme sont initialisées à 1/n pour chaque habi-
tat (Simon, 2008).
Pi est le changement de probabilité d'existence de l'habitat i, il est donné par l'équa-
tion (2.9) (Simon, 2008) :
Pi =
−(λi + µi)Pi + µi+1Pi+1 i = 1
−(λi + µi)Pi + λi−1Pi−1 + µi+1Pi+1 2 ≤ i < n
−(λi + µi)Pi + λi−1Pi−1 i = n
(2.9)
3 Modèle Prédateur et Proies
3.1 Origine du modèle prédateur et proies
L'idée de base du modèle prédateur et proies (P&P ) est d'imiter le comportement des
animaux dans la nature où, les prédateurs chassent pour survivre .
Les proies de leurs part, ont tendance à fuir des endroits où il y a des prédateurs et
explorent de nouveaux endroits sûrs pour survivre elles aussi (cf. Figure 2.4).
Figure 2.4: Exemples des prédateurs et proies.
3.2 Optimisation par le modèle prédateur et proies
L'algorithme d'optimisation par le modèle prédateur et proies est un algorithme d'op-
timisation de voisinage inspiré du phénomène naturel où un prédateur capture les proies
les plus faibles, ce qui signi�e qu'un prédateur élimine la proie la plus proche de sa posi-
tion (cf. Figure 2.5), qui correspond à la plus mauvaise valeur de la fonction objectif dans
un problème d'optimisation (Silva et al., 2010).
L'application du modèle prédateur et proies pour un problème d'optimisation peut
être résumée comme suit :
50
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
1. Calculer la position du prédateur dans l'espace de recherche par rapport à la mau-
vaise solution en utilisant l'équation :
xpredg = xmauvg + ρ(1− g
gmax) (2.10)
où ρ est une constante de taux de chasse, g est la générations courante et gmax est
le nombre maximum des générations.
2. Faire fuir les proies de la position du prédateur (déplacer les proies). Les nouvelles
positions sont données par :
xig+1 =
{xig + ρe−|d| d > 0
xig − ρe−|d| d < 0(2.11)
où d est la distance entre la proie et le prédateur.
3. Répéter les étapes 1 et 2 jusqu'à atteindre le critère d'arrêt.
Predateur(Mauvaise solution)
Anciennes positions des proies
Nouvelles positions des proies
Mouvements des proies
Figure 2.5: Modèle prédateur et proie.
4 Hybridation de l'algorithme BBO par le modèle pré-
dateur et proies amélioré
Dans cette section, nous allons présenter un algorithme d'optimisation (PMBBO) basé
sur l'hybridation de l'algorithme BBO et le modèle Prédateur et Proies amélioré (Salem
and Khel�, 2014c), (Salem and Khel�, 2014b). En e�et, deux modi�cations majeures ont
été introduites dans l'algorithme BBO originalement développé par (Simon, 2008) :
D'abord, une modi�cation de l'opérateur de migration où l'opérateur original présenté
dans l'équation (2.4) est remplacé par un nouvel opérateur permettant d'empêcher la dé-
51
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
térioration des meilleures solutions.
Le second changement proposé est de remplacer l'opérateur de mutation par un mo-
dèle prédateur et proies amélioré a�n d'assurer la diversi�cation. Cette modi�cation est
motivée par le fait que les espèces naturelles essayent toujours de trouver les endroits ha-
bitables en s'éloignant le plus possible de leurs prédateurs. L'algorithme PMBBO proposé
est décrit dans la Figure 2.6 (Salem and Khel�, 2014c).
4.1 Nouvel opérateur de migration
Dans (Sayed et al., 2012), une modi�cation de l'opérateur de migration a été proposée
en se basant sur les travaux de (Ma and Simon, 2011). L'opérateur proposé permet non
seulement de reconstruire les solutions existantes mais aussi de fournir de nouvelles solu-
tion a�n d'augmenter la diversi�cation. Cet opérateur permet de partager les informations
entre les habitats i et j comme le montre l'équation (2.12) (Salem and Khel�, 2014c) :
Hj (SIVc)← (kj
ki + kj)Hj (SIVc) + (1− kj
ki + kj)Hi (SIVc) , c = 1..nsiv. (2.12)
où ki et kj sont les rangs des habitats i et j.
Un nouvel opérateur de migration est proposé pour sauvegarder les meilleurs solutions et
d'en créer de nouvelles.
Cet opérateur permet aux meilleurs solutions de partager leurs informations en se
basant sur leurs qualité par rapport à la totalité des solutions. Ce partage est décrit dans
l'équation (2.13) (Salem and Khel�, 2014c) :
Hj (SIVc)← (n− kjn
)Hj (SIVc) + (kjn
)Hi (SIVc) (2.13)
4.2 Amélioration du modèle prédateur et proies
A�n d'appliquer le modèle prédateur et proie dans l'optimisation par la biogéographie,
nous proposons d'apporter quelques améliorations au modèle prédateur et proies classique.
Ces modi�cations se rapportent à la nature des prédateurs, leur nombre, la valeur du
taux de chasse et le déplacement des proies (Salem and Khel�, 2014b).
• Initialiser les prédateurs par les meilleures solutions :
Le modèle prédateur et proies est une méthode d'optimisation à base de voisinage,
pour cela le principe est de faire éloigner les proies de la mauvaise solution pour en
trouver des meilleures.
Dans notre cas, ce modèle est utilisé pour faire partie d'un autre algorithme d'opti-
misation où l'objectif est de s'éloigner des minima locaux ce qui nous conduit à la
dé�nition du prédateur à la meilleure solution.
52
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
• Utiliser un groupe de prédateurs :
Nous proposons de considérer un ensemble de prédateurs (Meilleures solutions).
Cette proposition est faite pour imiter le comportement des prédateurs qui par na-
ture, chassent en groupes et qu'il est fort probable d'avoir plusieurs minima locaux.
Il s'agit de faire éloigner les solutions se trouvant dans l'entourage de nbpred meilleures
solutions pour ne garder qu'une solution dans chaque emplacement.
Soit nbpred le nombre de prédateurs initialisé au nbpred meilleures solutions après clas-
sement. L'équation (2.10) sera remplacée par l'équation (2.14) (Salem and Khel�,
2014c) :
Hpredi = Hbi + ρ
(1− g
gmax
)i = 1..nbpred. (2.14)
• Déplacement aléatoire des proies :
Si nous étudions de prés le déplacement classique des proies dans le modèle préda-
teur et proies, il est clair qu'il a le même e�et que l'opérateur de migration de la
BBO (partager des informations entre solutions). Pour permettre aux solutions du
voisinage d'explorer d'autres parties de l'espace de recherche, une modi�cation de
la formule de déplacement (2.13)) s'impose.
Considérons une solution prédateur, l'idée est d'au lieu d'e�ectuer un petit déplace-
ment des proies, nous allons créer aléatoirement de nouvelles solutions à partir des
solutions avoisinantes du prédateur.
Les nouvelles solutions seront crées par l'équation (2.15) en introduisant une variable
aléatoire γ (Salem and Khel�, 2014b).
Hig+1 = Hig + γρe−|dm|(Himax −Himin) ig /∈ [1..nbpred]. (2.15)
où dm est la distance entre la proie Hig et le prédateur le plus proche donnée par
l'équation (2.16).
dm =nbpred
minj=1
d(Hig , Hpredj) (2.16)
Himinet Himax sont les bornes minimale et maximale possibles pour les variables de
décision de l'habitat H, γ est une valeur aléatoire entre −1 et 1 (Salem and Khel�,
2014c).
• Taux de chasse variable :
Puisque le besoin de diversi�cation décroît au long des générations au dépend de
l'intensi�cation, le taux de chasse ρ est choisi décroissant en fonction du nombre des
générations selon la formule (2.17) (Salem and Khel�, 2014c).
ρ =1
g(2.17)
53
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
où g est la génération actuelle et gmax est le nombre maximum de générations.
La Figure 2.7 montre un schéma explicatif du modèle prédateur et proie amélioré avec un
groupe de prédateurs au lieu d'un (Salem and Khel�, 2014c).
input : gmax, nsiv ,nbpredoutput : Optimal solution
1 Initialize gmax, nsiv ,nbpred;2 Initialize start islands.;3 while g < gmax do4 //Migration;5 for each island i do6 Calculate HSIi;7 Calculate λi and µi by Equation (2.5) and (2.6);8 Apply the modi�ed migration operator using Equation (2.13);9 end10 //Predator and prey ;11 Calculate Predators positions by Equation(2.14);12 for each island i do13 Calculate distance to all predators ;14 Calculate dm by Equation (2.16);15 Update island using Equation (2.15) ;16 end17 end
Figure 2.6: Algorithme PMBBO
Predateurs(Meuileures solutions)
Anciennes positions des proies
Nouvelles positions des proies
Mouvements des proies
Figure 2.7: Modèle prédateur et proies amélioré.
54
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
5 Réglage d'un contrôleur PID par l'approche PMBBO
Le réglage des paramètres d'un contrôleur PID peut être considéré comme un problème
d'optimisation où il s'agit de trouver la solution optimale des gains du contrôleur dans un
espace de recherche prédé�ni pour permettre au système de suivre une référence désirée.
Dans ce contexte, l'algorithme PMBBO peut être appliqué pour trouver la combinaison
optimale des gains proportionnel, intégral et dérivé Kp, Ki, Kd du contrôleur PID (Salem
and Khel�, 2014c).
L'espace de recherche dé�ni dans l'équation (2.18) est limité par les contraintes phy-
siques supportées par le système étudié.
Kp ∈ [Kpmin, Kpmax ]
Ki ∈ [Kimin, Kimax ]
Kd ∈ [Kdmin, Kdmax ]
(2.18)
5.1 Choix des fonctions objectifs
Le choix de la HSI (fonction coût) est conditionné par l'objectif à atteindre. Ces
objectifs sont �xés par les performances dé�nies dans le cahier des charges. Il s'agit géné-
ralement de l'erreur statique, du temps de montée, temps de réponse et du dépassement
maximum autorisé.
5.1.1 Fonctions basées sur l'erreur
Dans la littératures, Nous pouvons trouver une multitude de critères de performance
ou fonctions objectifs (HSI dans le cas de la BBO). La plupart de ces fonctions sont basées
sur l'erreur d'optimisation. Nous pouvons citer (Mitchell, 1998) :
- Intégral des carrées de l'erreur (ISE) :
ISE =
∫ +∞
0
e(t)dt (2.19)
- Intégral de l'erreur absolue (IAE) :
IAE =
∫ +∞
0
|e(t)|dt (2.20)
- Intégral du temps et carrées de l'erreur (ITSE) :
ITSE =
∫ +∞
0
te(t)dt (2.21)
55
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
- Intégral du temps et erreur absolue(ITAE) :
ITAE =
∫ +∞
0
t|e(t)|dt (2.22)
Pour tous les critères, la meilleure réponse correspond à la valeur minimale du critère
choisi.
Dans tous ces cas, soit l'erreur absolue ou l'erreur quadratique sont utilisés parce que
l'intégration simple peut conduire à un résultat nul erroné dans le cas où le système a une
amplitude constante oscillatoire (Mitchell, 1998).
La fonction IAE est souvent utilisée dans le cas discret, mais elle est inapplicable pour
le cas continu parce que la valeur absolue d'une fonction d'erreur généralement n'a pas
une forme analytique. Ce problème est surmonté par le critère ISE (Mitchell, 1998).
Les fonctions ITAE et ITSE ont un opérateur de temps supplémentaire multiplié par la
fonction de l'erreur, ce qui met l'accent sur les erreurs de longue durée, et par conséquent,
ces critères sont le plus souvent appliqués dans le cas des systèmes nécessitant un temps
de réponse rapide (Lahoty and Parmar, 2013).
5.1.2 Fonction globale
Dans le cas où les objectifs à atteindre sont spéci�és en qualité d'erreur statique,
dépassement autorisé, temps de monté et temps de réponse, la fonction de l'équation (2.23)
est utilisée (Lahoty and Parmar, 2013).
fg = (1− eβ)(Omax + es) + eβ(Tr − Tm) (2.23)
où Tr et Tm sont le temps de réponse et de montée respectivement. Omax est le dépassement
maximum et es est l'erreur statique. β est une constante de pondération.
5.2 Architecture d'optimisation adoptée
Pour optimiser les paramètres du contrôleur PID, l'algorithme PMBBO va être appli-
qué. Lors de la première étape, la population initiale va être crée aléatoirement avec n
habitats contenant 3 variables de décision (SIV) : Kp, Ki, Kd.
Pour évaluer les habitats, nous injectons ces gains dans le contrôleur PID et nous
mesurons la sortie du système, cela nous permet de calculer les performances (Erreur,
temps de montée, temps de réponse et dépassement).
L'architecture d'utilisation de l'algorithme PMBBO pour le réglage des paramètres du
contrôleur PID est montrée dans la Figure 2.8 (Salem and Khel�, 2014b).
56
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
yd(t)+
PIDe(t)
Systèmey(t)u(t)
−
PMBBO
Kp, Ki, Kd
Figure 2.8: Application de l'algorithme PMBBO pour le réglage des paramètres du PID.
6 Résultats de simulation
Pour évaluer l'algorithme proposé, nous allons l'appliquer pour ajuster les paramètres
d'un contrôleur PID pour commander deux systèmes non linéaires décrits dans l'annexe :
Le système masse-essort-Amortisseur et le pendule inversé.
L'évaluation sera e�ectuée par le biais de la fonction objectif ISE donnée en équa-
tion (2.19). Par la suite, nous présenterons une comparaison des performances de PMBBO
avec les algorithmes BBO, AG et MBBO (BBO avec l'opérateur de migration modi�é don-
née en Équation (2.13)) en utilisant la fonction HSI fg de l'équation (2.23).
6.1 Application de l'algorithme PMBBO avec le système Masse-
ressort-Amortisseur
A�n de commander le système Masse-Ressort-Amortisseur, nous avons appliqué l'al-
gorithme PMBBO pour optimiser les paramètres du contrôleur PID. La référence que le
système doit atteindre est xd = 1m. Les paramètres de l'algorithme PMBBO utilisé sont
montrés dans la Table 2.4.
L'évolution des minima de la fonction HSI (ISE) le long des 50 générations est donnée
dans la Figure 2.9. Le minimum atteint en 50 générations est de 9.371.
L'e�et apporté par le modèle prédateur et proie peut être constaté sur la Figure 2.10 où
nous pouvons remarquer que la distance entre la meilleure solution et la mauvaise décroît
le long des générations à cause de l'e�et de diversi�cation apporté par le modèle prédateur
et proies amélioré.
Les gains correspondants aux meilleures solutions sont représentés dans la Figure 2.11
où nous pouvons constater que la combinaison retenue est Kp = 47.2601,Ki = 8.4561 et
Kd = 3.9597.
Les positions désirées (xd = 1m) et réelle sont montrées dans la Figure 2.12 et les
erreurs correspondants sont en Figure 2.13. Les gains optimaux ont conduit le système à
57
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
une convergence rapide vers la sortie désirée avec une erreur statique presque nulle et un
temps de réponse inférieur à 0.2s(Tr = 0.19s).
Table 2.4: Paramètres de la PMBBO, Masse ressort amortisseur
Paramètre Valeur
n 20
gmax 50
I,E 1
Intervalles de Kp, Ki, Kd [0..50]
Nombre de Prédateurs nbpred 4
HSI ISE
0 5 10 15 20 25 30 35 40 45 509
9.5
10
10.5
11
Générations
HSI
1
Figure 2.9: Évolution des meilleures HSI par PMBBO Masse ressort amortisseur.
0 5 10 15 20 25 30 35 40 45 508
10
12
14
16
18
Générations
HSI
Mauvaises solutionsMeilleures solutions
Figure 2.10: Évolution des mauvaises HSI par PMBBO, Masse ressort amortisseur.
58
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
0 5 10 15 20 25 30 35 40 45 50−20
0
20
40
Générations
Gains
Kp
Ki
Kd
Figure 2.11: Évolution des gains du PID par PMBBO, Masse ressort amortisseur.
0 1 2 3 4 5 6 7 8 9 100
0.5
1
Temps(s)
positions
(m)
Position réellePosition désirée
Figure 2.12: Positions réelle et désirée du Masse ressort amortisseur par PMBBO.
0 1 2 3 4 5 6 7 8 9 10
0
0.5
1
Temps(s)
Erreuren
position(m
)
Figure 2.13: Erreurs en position du Masse ressort amortisseur par PMBBO.
59
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
6.2 Application de l'algorithme PMBBO avec le pendule inversé
La deuxième application de l'algorithme proposé PMBBO est dans la commande du
pendule inversé. Nous avons appliqué l'algorithme PMBBO pour optimiser les paramètres
d'un contrôleur PID pour le pendule inversé.
L'objectif de la commande est de garder l'angle θ nulle pendant le mouvement du charriot
(θd = 0). Les paramètres de l'algorithme PMBBO utilisés sont montrés dans la Table 2.5.
L'évolution des minima de la fonction HSI (ISE) le long des 50 générations est donnée
dans la Figure 2.14 où nous pouvons remarquer que l'algorithme atteint son minimum
après 10 générations. Les gains correspondants au minimum obtenu sont dans la Fi-
gure 2.15.
Les gains obtenus par l'algorithme PMBBO sont utilisés pour la commande PID du pen-
dule inversé. L'objectif est de ramener la tige et la garder dans une position verticale .
L'erreur de régulation est présentée dans la Figure 2.16.
Nous pouvons remarquer la rapidité avec laquelle, la tige a atteint la position verticale
dans un temps de réponse de 0.05s et une erreur statique de 10−5Rad.
Table 2.5: Paramètres de la PMBBO, pendule inversé
Paramètre Valeur
n 20
gmax 50
I,E 1
Intervalles de Kp, Ki, Kd [0..50]
Nombre de prédateurs npred 6
HSI ISE
0 5 10 15 20 25 30 35 40 45 50
0.64
0.64
0.65
0.65
Générations
Min
HSI
Figure 2.14: Évolution des meilleures HSI de la PMBBO avec un pendule inversé).
60
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
Figure 2.15: Évolution des gains du PID pour la PMBBO avec un pendule inversé.
0 1 2 3 4 5 6 7 8 9 10
−0.3
−0.2
−0.1
0
Temps (s)
ErreurAngle(rad)
Figure 2.16: Erreurs en position angulaire θ par la PMBBO avec un pendule inversé).
6.3 Étude comparative de l'algorithme PMBBO
Les performances de l'algorithme PMBBO ont été comparées avec celles des algo-
rithmes génétiques (AG), optimisation par la Biogéographie (BBO) (Salem and Khel�,
2012), BBO Modi�é (MBBO). La comparaison a été réalisée dans les mêmes conditions
(Nombre d'évaluations, Taille de population, Population initiale). Les paramètres des al-
gorithmes utilisés dans la comparaison (BBO, MBBO, PMBBO et AG) sont représentés
dans la Table 2.6 et Table 2.7 respectivement.
Le système pendule inversé a été utilisé pour comparer les algorithme. Les erreurs en
position angulaire du pendule pour les algorithmes AG, BBO et PMBBO sont représentés
en Figure 2.17.
Pour e�ectuer la comparaison, chaque algorithme est exécuté 10 fois, chacune avec une
61
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
population initiale di�érente. Les valeurs minimales de la fonction objectif (�tness pour
les AG et HSI pour les algorithmes à base de BBO) sont mentionnées dans la Table 2.8.
A partir de la Table 2.9, PMBBO a donné les meilleurs résultats avec des populations
initiales di�érentes par rapport aux autres algorithmes. Ceci est dû au modèle prédateur
et proie amélioré qui a permis d'éviter les minima locaux et a amélioré les performances
de la BBO.
D'un autre part, les résultats de l'algorithme MBBO (BBO avec opérateur de migration
modi�é) sont clairement meilleures que ceux du BBO, ce qui valide l'apport du nouvel
opérateur de migration.
Les résultats des 4 algorithmes sont détaillés dans la Table 2.8 en termes de performances
du système (temps de montée(Tm), temps de réponse (Tr) et dépassement(Omax)).
L'algorithme PMBBO a obtenu de meilleurs résultats que les AG en termes de temps
de montée pour toutes les exécutions, en temps de réponse (9 exécutions sur 10) et en
dépassement (7 exécutions sur 10)(cf. Table 2.9).
Table 2.6: Paramètres de BBO, MBBO et PMBBO pour la comparaison.
Paramètre BBO MBBO PMBBO
Nombre des Habitats N 20 20 20
Nombre des évaluations 104 104 104
SIVs 3 3 3
Coe�cient de mutation 0.1 0.1 /
E = I 1 1 1
Nombre de prédateurs npred / / 6
HSI fg fg fg
Table 2.7: Paramètres des algorithmes génétiques(AG) pour la comparaison
Paramètre Valeur
Chromosomes 20
Nombre des évaluations 104
Gênes 3
Taux de croisement 0.6
Type de croisement Deux points
Taux de mutation 0.01
Type de mutation bit �ip
Fitness fg
62
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
Table 2.8: Coûts minimums des 10 exécutions pour les algorithmes AG, BBO, MBBOet PMBBO (fg).
Exécution AG BBO MBBO PMBBO
1 4.6e-03 4.5e-03 4.5e-03 4.2e-03
2 4.7e-03 4.5e-03 4.6e-03 4.2e-03
3 4.7e-03 4.3e-03 4.2e-03 4.1e-03
4 4.7e-03 4.2e-03 4.2e-03 4.1e-03
5 4.6e-03 4.2e-03 4.4e-03 4.1e-03
6 4.6e-03 4.3e-03 4.3e-03 4.1e-03
7 4.7e-03 4.3e-03 4.2e-03 4.0e-03
8 4.6e-03 4.3e-03 4.3e-03 4.1e-03
9 4.7e-03 4.3e-03 4.2e-03 4.1e-03
10 4.8e-03 4.2e-03 4.2e-03 4.1e-03
0 1 2 3 4 5 6 7 8 9 10−0.35
−0.3
−0.25
−0.2
−0.15
−0.1
−0.05
0
0.05
Temps (s)
Erre
ur A
ngla
ire (
rad)
GA
BBO
PMBBO
0 0.2 0.4 0.6 0.8 1
−0.04
−0.02
0
0.02
0.04
Figure 2.17: Erreurs en position angulaire(étude comparative du PMBBO).
Table 2.9: Performances du pendule inversé avec PID, étude comparative de la PMBBO
Exécution PMBBO AG
Min HSI Tm(s) Tr(s) Omax Min �tness Tm(s) Tr(s) Omax
1 0.579 0.061 0.160 0.012 0.619 0.056 3.465 0.014
2 0.579 0.064 0.175 0.012 0.592 0.058 0.158 0.014
3 0.577 0.064 0.194 0.014 0.672 0.059 1.783 0.018
4 0.577 0.064 0.172 0.011 0.646 0.056 0.175 0.020
5 0.575 0.064 0.178 0.012 0.670 0.055 1.730 0.020
6 0.581 0.065 0.208 0.015 0.632 0.077 2.301 0.008
7 0.579 0.064 0.180 0.012 0.640 0.068 4.117 0.014
8 0.581 0.064 0.191 0.014 0.602 0.061 0.167 0.013
9 0.580 0.066 0.197 0.014 0.634 0.058 4.360 0.011
10 0.568 0.065 0.178 0.012 0.606 0.060 0.164 0.013
63
Chapitre 2. Optimisation biogéographique basée sur le modèle prédateur et proiesamélioré
7 Conclusion
Dans ce chapitre, nous avons présenté un algorithme hybride (PMBBO) entre l'opti-
misation par la biogéographie (BBO) et le modèle prédateur et proies.
Des modi�cations ont été apportées, d'une part, à l'opérateur de migration du BBO
pour préserver les solutions d'être détériorées et d'autre part, au modèle prédateur et
proie pour l'adapter à l'hybridation. En e�et, le modèle prédateur et proies amélioré
di�ère largement du modèle original où un ensemble de prédateurs est considéré pour
accroitre la diversi�cation de l'algorithme hybride et accélérer le processus de trouver la
solution optimale en générant des habitats aléatoires.
L'algorithme obtenu a été utilisé pour l'optimisation des gains d'un contrôleur PID
avec deux systèmes non linéaires, le système masse-ressort-amortisseur et le pendule in-
versé.
Une comparaison de l'algorithme PMBBO a été réalisée avec l'algorithme BBO clas-
sique et les algorithmes génétiques.
Bien que les résultats de cette comparaison aient con�rmé l'amélioration des perfor-
mances d'optimisation de l'algorithme proposé, néanmoins, cette conclusion reste à valider
statistiquement à cause du petit nombre d'échantillons utilisés (moins de 30) (Garcia et al.,
2010).
Les résultats obtenus a�érant aux travaux réalisés ont été validés par des instances
scienti�ques internationales, en l'occurrence :
• ICCS12 pour l'application de l'algorithme de l'optimisation basée sur la biogéogra-
phie pour optimiser un contrôleur PID.
• IJOCTA14 pour la conception de l'algorithme hybride PMBBO.
• IJISA14b pour l'amélioration de l'algorithme hybride PMBBO.
64
Chapitre 3
Optimisation par colonie d'abeilles
arti�cielles et prédateur et proies
amélioré
1 Introduction
L'étude des phénomènes réels est une nouvelle source d'inspiration en ingénierie d'in-
formatique, où l'étude et la modélisation des systèmes complexes sont très présentes.
Parmi les domaines fertiles de la biologie en inspiration, l'éthologie (étude du compor-
tement des animaux) a récemment donné lieu à plusieurs avancées signi�catives, dans
la conception des systèmes arti�ciels. Ces systèmes sont notamment étudiés en robo-
tique, en classi�cation ou encore en optimisation. Les méta-heuristiques constituent une
famille d'algorithmes inspirés de la nature. Ces algorithmes sont particulièrement utiles
pour résoudre des problèmes où les algorithmes d'optimisation classiques sont incapables
de produire des résultats satisfaisants. L'algorithme d'optimisation par colonie d'abeilles
arti�cielles (ABC) est une de ces méthodes.
L'algorithme ABC repose sur le principe de la division du travail chez les abeilles où
trois phases sont identi�ées, la phase des abeilles employés, la phase des abeilles onlookers
et la phase des scouts. Cette dernière est exécutée chaque i cycles pour sortir des minima
locaux et diversi�er les solutions.
Le fait que le processus de diversi�cation ne s'exécute que chaque i cycles conduit l'al-
gorithme a rester entre temps dans des minima locaux. Ce problème a motivé l'hybridation
de l'algorithme ABC avec le modèle prédateur et proies amélioré.
Dans ce chapitre nous présentons en détail l'algorithme colonie d'abeilles arti�cielles
ABC ainsi que le nouvel algorithme hybride ABC-PP qui est analysé et comparé avec un
ensemble d'algorithmes d'optimisation en appliquant des tests statistique non-paramétriques
pour déceler les di�érences entre ABC-PP et ces algorithmes. En�n, l'algorithme ABC-PP
65
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
a été appliqué pour l'optimisation des paramètres d'un contrôleur PID pour la commande
du pendule inversé.
2 Optimisation par colonie d'abeilles arti�cielles
2.1 Intelligence bio-inspirée
À la �n des années 80, une nouvelle voie d'exploration est apparue en intelligence
computationnelle. Il s'agit de l'étude et de l'utilisation des phénomènes observés dans la
nature.
L'intelligence en essaims est une branche de recherche qui modélise la population
d'agents en interaction, où des essaims sont capables de s'auto-organiser et de diviser le
travail entre eux. Une colonie de fourmis, un troupeau d'oiseaux ou un système immuni-
taire est un exemple typique d'un système essaim (cf. Figure 3.1).
En e�et, ce sont des systèmes composés d'agents très simples, qui peuvent produire
des constructions complexes et des solutions à des problèmes non triviaux (tri, parcours
optimaux, répartition de tâches,...).
Les informaticiens ont repris les principes d'auto-organisation et d'émergence présents
dans ces sociétés, pour dé�nir l'intelligence collective. Nous pouvons la dé�nir comme
� Toute tentative de concevoir des algorithmes distribués ou de résolution de problèmes
par des dispositifs inspirés par le comportement collectif des colonies d'insectes sociaux et
des sociétés animales � (Eberhart et al., 2001). Elle caractérise un système où le travail col-
lectif des entités (non complexes) interagissant entre elles, fait émerger un comportement
complexe global.
Les avantages liés à l'utilisation d'une telle approche sont :
� La production d'une performance collective supérieure à celle des individus.
� Une plus grande adaptation et �exibilité aux environnements réels (en général dy-
namiques).
� La �abilité du système dans son ensemble (la perte d'un agent ne met pas en cause
le processus général).
L'essaim utilise deux concepts fondamentaux pour obtenir un comportement intelligent :
L'auto-organisation et la division de travail (Seeley, 1995).
66
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
(a) Fourmis (b) Abeilles
(c) Oiseaux
Figure 3.1: Exemples d'essaim
2.1.1 Auto-organisation
Elle peut être dé�nie comme un ensemble de mécanismes dynamiques qui établissent
les règles de base concernant l'interaction entre les composants du système. Les règles
font en sorte que les interactions sont exécutées sur la base des informations purement
locales sans aucun rapport avec le schéma global. Les quatre propriétés fondamentales sur
lesquelles repose l'auto-organisation des abeilles dans la ruche sont (Seeley, 1995) :
Rétroaction positive
Comme la quantité de nectar des sources de nourriture augmente, le nombre de leurs
visites par les abeilles augmente aussi.
Rétroaction négative
Le processus d'exploitation des sources de nourriture pauvres est arrêté par les
abeilles.
Fluctuations
Les scouts mènent un processus de recherche aléatoire pour découvrir de nouvelles
sources de nourriture.
Interactions multiples
Les abeilles partagent leurs informations sur les sources de nourriture avec les on-
lookers sur la piste de danse.
67
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Figure 3.2: Source de nourriture.
2.1.2 Division du travail
Dans le comportement des essaims, di�érentes tâches sont exécutées simultanément
par des agents spécialisées. Il permet de répondre aux conditions changeantes dans l'espace
de recherche (Eberhart et al., 2001).
2.2 Modèle de comportement d'abeilles
Tereshko (Tereshko, 2000) développait un modèle de comportement de butinage d'une
colonie d'abeilles sur la base des équations de réaction-di�usion. Ce modèle minimal de
la sélection du butinage a conduit à l'émergence de l'intelligence collective des essaims
d'abeilles.
Il se compose de trois éléments essentiels : les sources de nourriture, les abeilles em-
ployées et les abeilles non employées et il dé�nit deux modes principaux du comportement :
le recrutement d'une source de nectar et de l'abandon d'une source.
2.2.1 Sources de nourriture
La valeur d'une source de nourriture (cf. Figure 3.2) dépend de nombreux facteurs tels
que sa proximité de la ruche, sa richesse, le goût de son nectar ou de la concentration de
son énergie et la facilité d'extraction de cette énergie. Par souci de simplicité la rentabilité
d'une source de nourriture peut être représentée par une seule quantité (Seeley, 1995).
2.2.2 Abeilles employées
Elles sont associées à une source de nourriture particulière dont elles en sont actuel-
lement exploitantes (cf. Figure 3.3), elles transportent avec elles et partagent avec une
certaine probabilité des informations à propos de cette source, sa distance, sa direction
de la ruche et sa rentabilité (Seeley, 1995).
68
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Figure 3.3: Abeille employée exploitant une source de nourriture.
2.2.3 Abeilles non employées
Elles cherchent sans cesse des sources de nourriture à exploiter. Il existe deux types
d'abeilles non employées : les scouts qui recherchent dans l'environnement entourant la
ruche pour de nouvelles sources de nourriture et les onlookers qui attendent dans la ruche
et choisissent une source de nourriture par le biais de l'information partagée par les abeilles
employées (cf. Figure 3.4).
L'échange d'informations entre les abeilles est l'événement le plus important dans la
formation de la connaissance collective. La partie la plus importante de la ruche à l'égard
de cet événement est la piste de danse. La communication entre les abeilles liées à la
qualité des sources de nourriture a lieu dans la région de la danse. Cette danse s'appelle
la danse frétillante (Seeley, 1995).
D'après les informations partagées par les employées sur toutes les sources de nour-
riture autour du ruche ; un onlooker sur la piste de danse peut, probablement assister
à de nombreuses danses et il y a une plus grande probabilité qu'il décide de recruter la
source la plus rentable. Les abeilles employées partagent leurs informations avec une pro-
babilité proportionnelle, à travers la danse frétillante (cf. Figure 3.5). Par conséquent, le
recrutement est proportionnel à la rentabilité de la source de nourriture.
Figure 3.4: Un onlooker tente d'améliorer une source de nourriture.
69
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Figure 3.5: Danse frétillante des abeilles.
2.3 Algorithme colonie d'abeilles arti�cielles
L'algorithme colonie d'abeilles arti�cielles(ABC) a été introduit par (Karaboga, 2005)
pour l'optimisation des fonctions.
Chaque solution représente une source de nourriture potentielle dans l'espace de re-
cherche et la qualité de la solution correspond à la qualité de la position alimentaire.
Les abeilles arti�cielles cherchent à exploiter les sources de nourriture dans l'espace de
recherche.
2.4 Étapes de l'algorithme ABC
Pour trouver la solution optimale du problème d'optimisation de la forme (3.1) avec
l'algorithme ABC, les paramètres de contrôle résumés dans la Table 3.1 sont initiali-
sés (Karaboga et al., 2007).
MinXf(X), X = (x1 . . . xDim). (3.1)
Au départ de l'algorithme, un ensemble de Ne sources de nourriture est initialisé
aléatoirement dans l'espace de recherche. Chaque solution est évaluée par l'équation (3.2)
(Karaboga et al., 2007).
fiti =
{1
fi+1fi ≥ 0
1 + |fi| sinon(3.2)
Où fi est la fonction objectif évaluée pour la solution i, fiti est la fonction �tness.
L'algorithme ABC réitère trois phases jusqu'à atteindre une qualité de solution où un
nombre maximum de cycles cmax souhaités. Ces phases sont la phase d'abeilles employées,
onlookers, et les scouts (Karaboga et al., 2007).
70
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Table 3.1: Paramètres de l'algorithme ABC
Paramètre Désignation Nature
cmax Nombre maximal de cycles Ct
N Taille de la colonie Ct (N est pair)
Ne Nombre des abeilles employées Ne = N/2
No Nombre des onlookers No = N/2
Ns Nombre des scouts Ct , généralement égal à 1
Dim Nombre de variables de décision Ct
Limit Nombre de tentative d'amélioration d'une solution Ct
T Compteur de tentative d'amélioration d'une solution Ti = 0 / i = 0..Ne
2.4.1 Phase des employées
Chaque abeille employée i tente d'améliorer sa situation par une recherche locale, elle
réalise les opérations suivantes (Karaboga et al., 2007) :
1. Génération d'une nouvelle solution candidate par la formule (3.3).
vij = snij + φij(snij − snkj) (3.3)
où k ∈ (1, 2, ..., Ne) et j ∈ (1, 2, ..., Dim) sont des indices choisis aléatoirement et
k 6= i. φij est un nombre aléatoire entre −1 et 1.
2. Évaluation de la solution candidate vij, en calculant fi, et la �tness fiti par l'équa-
tion (3.2).
Si l'abeille employée i n'arrive pas à améliorer la solution courante alors le compteur
T est incrémenté sinon il est mis à 0 (Karaboga et al., 2007).
3. Calcul de la probabilité de la solution en utilisant l'expression suivante (Karaboga,
2005) :
pi =fiti
Ne∑g=1
fitg
(3.4)
2.4.2 Phase des onlookers
Après ; chaque onlooker j va réaliser les opérations suivantes (Karaboga et al., 2007) :
1. Choisir une solution i avec une probabilité pi reliée au �tness des sources de nour-
riture partagées par les employées (Karaboga et al., 2007).
2. Essayer d'améliorer la solution i en utilisant le même mécanisme décrit dans l'équa-
tion (3.3) (Karaboga et al., 2007).
3. Évaluer la solution i en utilisant l'équation (3.2).
71
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Si une meilleure position est trouvée par l'onlooker, la position de l'abeille employée qui
correspond à cette solution est mise à jour et son compteur est mis à 0. Sinon, le compteur
correspondant est incrémenté (Karaboga, 2005).
2.4.3 Phase des scouts
Si la valeur du compteur T d'une employée ou d'une onlooker dépasse un certain seuil
limit, cette dernière abandonne sa position et devient un scout pour trouver une nouvelle
solution aléatoire dans l'espace de recherche (Karaboga, 2005).
2.5 Discussion sur l'algorithme ABC
L'algorithme ABC est un algorithme d'optimisation très intéressant par ses qualités
par rapport aux autres algorithmes. Il a les avantages et les limites suivantes :
2.5.1 Avantages de l'algorithme ABC
1. Possibilité de parallélisation :
L'algorithme ABC est constitué de trois phases, abeilles employés, abeilles onlokers
et scouts. Les deux premières phases peuvent très bien être implémentées en utili-
sant les techniques de parallélisation ce qui conduit à la réduction du temps global
de l'algorithme.
2. Nombre de paramètres de contrôle :
L'algorithme ABC utilise un nombre minimal de paramètres , le nombre d'abeilles
qui contrôle la taille de l'algorithme, le nombre maximum des cycles qui contrôle
l'arrêt du l'algorithme et en�n le paramètre limit qui décide quand changer une
source qui ne s'améliore pas par une autre aléatoirement crée.
2.5.2 Limites de l'algorithme ABC
L'algorithme ABC comme la plupart des algorithmes d'optimisation dispose d'un mé-
canisme d'évolution ( Employés et onlookers) et un mécanisme de diversi�cation (scout).
La phase des scouts ne se produit pas chaque cycles mais le principe est d'incrémenter
un compteur pour les solutions qui ne s'améliorent pas dans le cycle courant jusqu'à
atteindre un seuil Limit.
Fixer ce paramètre est un problème en lui même, des petites valeurs peuvent éliminer
une solution avant d'exploiter son voisinage en complet, tandis que des grandes valeurs
risquent de piéger l'algorithme dans des minima locaux pour plusieurs cycles.
Nous proposons dans la section suivante d'hybrider l'algorithme ABC avec le modèle
prédateur et proies amélioré du chapitre précédent pour accroitre la diversi�cation.
72
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
3 Colonie d'abeilles arti�cielles et prédateur et proies
amélioré
Le modèle P&P amélioré est utilisé dans les algorithmes d'optimisation pour renforcer
la diversi�cation et lui permettre d'éviter les minima locaux.
Dans cette section, une nouvelle approche ABC-PP basée sur l'intégration du com-
portement P&P amélioré (décrit en Section 4.2 du Chapitre 2) dans l'algorithme ABC
pour l'accélérer et améliorer ses performances (Salem and Khel�, 2013).
Dans ce contexte, la phase des scouts de l'algorithme ABC est remplacée par le com-
portement Prédateur et proies amélioré.
Les npred meilleures sources de nourriture seront initialisées en prédateurs par l'équa-
tion (3.5) :
snpredi = snbi + ρ
(1− c
cmax
)i = 1..npred. (3.5)
Les sources de nourriture les plus proches des prédateurs sont remplacées par des sources
aléatoires par la formule (3.6) :
snic+1 = snic + µρe−|dm|(snimax − snimin) ic /∈ 1..npred. (3.6)
où dm est la distance entre la proie snic et le prédateur le plus proche donnée par l'équation
suivante :
dm =npred
minj=1
d(snic , snpredj) (3.7)
La nouvelle approche hybride ABC-PP est détaillée dans l'algorithme suivant :
73
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
input : N , cmax, ρ
output : Optimal solution
1 Initialize N , cmax, ρ, npred;
2 Ne = No = N/2;
3 Initialize start food sources;
4 while c < cmax do
5 for Each employed bee i do
6 Calculate fi and fiti;
7 Create new source vi and apply greedy selection;
8 end
9 for Each onlooker i do
10 Compute probability pi;
11 Select source using pi;
12 Create new source vi and apply greedy selection;
13 end
14 Assign predators to best sources by Equation (3.5);
15 for Each employed bee i do
16 Compute distance to the closest predator with Equation (3.7);
17 Update the bee position with Equation (3.6);
18 end
19 end
Figure 3.6: AlgorithmeABC-PP
4 Analyse statistique des algorithmes PMBBO et ABC-
PP
A�n d'étudier les performances des deux algorithmes proposés (PMBBO et ABC-PP),
nous allons les comparer à un ensemble d'algorithmes d'optimisation présentés dans la
session spéciale de CEC2013(Special Session and Competition on Real Parameter Single
Objective Optimization) (Liang et al., 2013). Les algorithmes considérés sont : ICMAE-
LILS (Liao and Stutzle, 2013), SMADE (Cara�ni et al., 2013), TPC-GA (Elsayed et al.,
2013), fk-PSO (Nepomuceno and Engelbrecht, 2013). Le choix de ces algorithmes est
motivé par le fait qu'ils représentent chacun, une amélioration d'un algorithme connu :
Evolution strategy (ICMAELILS), Di�erential Evolution (SMADE), Genetic algorithms
(TPC-GA) et Particle swarm optimization (fk-PSO).
La comparaison est réalisée à travers une panoplie de tests statistique. Pour e�ectuer
ces tests, des conditions d'utilisation des tests paramétriques doivent être véri�és. Si ce
74
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
n'est pas le cas, nous aurons recours aux tests non-paramétriques pour une comparaison
par paires et multiple (Les résultats des tests sont calculés par SPSS et MATLAB). La
procédure suivie est montrée dans la Figure 3.7 :
Résultats
Conditions Tests paramètriques
Tests nonparamétriques
Comparaison paires
Wilcoxon test
Comparaison multiple
pvalue < α Pas de di�érences
Post Hoc procedures
Estimation du contraste
OuiNon
Oui
Non
Figure 3.7: Procédure de l'analyse statistique .
4.1 Paramètres de l'expérimentation
L'objectif de la comparaison est de trouver le minimum de 28 problèmes dé�nis à la
CEC2013 et listés ci-dessous (Liang et al., 2013) :
• 5 Fonctions Uni-modales :
- f1 : Sphere Function.
- f2 : Rotated High Conditioned Elliptic Function.
- f3 : Rotated Bent Cigar Function.
75
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
- f4 : Rotated Discus Function.
- f5 : Di�erent Powers Function.
• 15 fonctions basiques Multimodales :
- f6 : Rotated Rosenbrock's Function.
- f7 : Rotated Scha�ers F7 Function.
- f8 : Rotated Ackley's Function.
- f9 : Rotated Weierstrass Function.
- f10 : Rotated Griewnk's Function.
- f11 : Rastrigin's Function.
- f12 : Rotated Rastrigin's Function.
- f13 : Non-Continuous Rotated Rastrigin's Function.
- f14 : Schwefel's Function.
- f15 : Rotated Schwefel's Function.
- f16 : Rotated Katsuura Function.
- f17 : Lunacek Bi_Rastrigin Function.
- f18 : Rotated Lunacek Bi_Rastrigin Function.
- f19 : Expanded Griewank's plus Rosenbrock's Function.
- f20 : Expanded Sca�er's F6 Function.
• 8 fonctions composées :
- f21 : Composition Function 1 (n=5, Rotated).
- f22 : Composition Function 2 (n=3, Unrotated).
- f23 : Composition Function 3 (n=3, Rotated).
- f24 : Composition Function 4 (n=3, Rotated).
- f25 : Composition Function 5 (n=3, Rotated).
- f26 : Composition Function 6 (n=5, Rotated).
- f27 : Composition Function 7 (n=5, Rotated).
- f28 : Composition Function 8 (n=5, Rotated).
La description des 28 fonctions utilisées, leurs minima analytiques, et leurs caractéris-
tiques peuvent être trouvées dans (Liang et al., 2013)).
Pour e�ectuer la comparaison, nous avons suivi les paramètres de l'expérimentation
dé�nis dans la CEC2013 pour pouvoir comparer nos deux algorithmes avec ceux de la
compétition (Liang et al., 2013)). Ainsi, chaque algorithme est exécuté 51 exécutions
76
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
indépendantes pour chaque fonction avec une dimension D = 50 pour trouver le minimum
dans l'espace de recherche [−100, 100]D. Le critère d'arrêt est soit quand l'algorithme
atteint un nombre maximum d'évaluations 100 ∗D où la valeur de l'erreur soit inférieur
à 10−8 (Liang et al., 2013).
Les paramètres des algorithmes utilisés sont les mêmes que dans leurs références res-
pectives tandis que les paramètres de nos deux algorithmes proposés sont dans la Table 3.2.
Les moyennes de l'erreur Moyer pour les valeurs minimales obtenues à partir des 51
exécutions sont représentées dans la Table 3.3.
Table 3.2: Paramètres des algorithmes PMBBO et ABC-PP
PMBBO ABC-PP
Paramètre Valeur Paramètre Valeur
Nombre d'habitats N 50 Nombre d'abeilles N 50
E,I 1 /
Nombre de prédateurs npred 50 Nombre de prédateurs npred 50
4.2 Conditions d'utilisation des tests paramétriques
Les tests statistiques sont généralement utilisés pour tirer des déductions sur une où
plusieurs populations d'échantillons. Avant de commencer un test, deux hypothèses sont
dé�nies, l'hypothèse nulle qui stipule la non di�érence entre les populations comparées et
l'hypothèse alternative qui suppose la présence de di�érence (Garcia et al., 2009).
Un test requière la dé�nition d'un niveau de signi�cation α pour déterminer à quel
niveau, l'hypothèse peut être rejetée (Résultat du test inférieur à α signi�e que l'hypothèse
nulle est rejetée). Quand les données à analyser sont des réelles, les tests paramétriques
sont souvent utilisés pour comparer les résultats des algorithmes.
Pour utiliser des tests paramétriques, des conditions doivent être véri�ées (Sheskin,
2006), (Garcia et al., 2009). Ces conditions sont l'indépendance des échantillons comparés,
leurs normalité et égalité des variances (hétéroscédasticité).
Dans notre cas, les résultats sont obtenus à partir des exécutions indépendantes avec
des individus initiaux générés aléatoirement. L'analyse de la Normalité va être achevée
par les tests de Kolmogorov-Smirnov et Shapiro-Wilk tandis que le test de Levene va être
utilisé pour véri�er la hétéroscédasticité (Sheskin, 2006).
• Test de Kolmogorov-Smirnov (Sheskin, 2006) :
Il fournit une p-value en se basant sur la comparaison des distributions accumulées
des données observées avec celles d'une distribution gaussienne.
• Test de Shapiro-Wilk (Shapiro and Wilk, 1965) :
77
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Table3.3:
Moyennesde
l'erreurpourles28
fonctionsbenchmark.
Func
ICMAELILS
TPC-G
ASMADE
fk-PSO
PMBBO
ABC-PP
f 11.0000E-08
0.0000E+00
2.2700E-13
0.0000E+00
0.00E+00
0.0000E+00
f 21.0000E-08
4.7601E+05
2.2700E-13
2.7600E+06
2.11E+02
0.0000E+00
f 32.0100E-02
1.0571E+08
3.8100E+05
9.6800E+08
3.65E+03
0.0000E+00
f 41.0000E-08
3.3297E+00
2.2700E-13
5.2500E+02
1.69E+00
0.0000E+00
f 51.5200E-08
4.7716E+04
6.8200E-13
0.0000E+00
2.00E-03
0.0000E+00
f 64.1900E+01
4.7228E+01
4.3000E+01
5.5100E+01
3.70E+01
0.0000E+00
f 75.4400E-01
4.1650E+01
4.3200E+01
7.8100E+01
2.30E+01
1.0E
-01
f 82.1100E+01
2.1190E+01
2.1100E+01
2.1100E+01
2.11E+01
1.18E+01
f 98.1800E+00
7.4306E+01
4.3600E+01
3.8500E+01
4.52E+01
1.95E+00
f 10
1.0000E-08
1.0474E-01
2.4700E-02
2.1300E+01
8.50E-01
0.0000E+00
f 11
5.9400E+00
5.5675E+01
4.8100E+01
8.6100E+01
3.28E+01
1.256E
+00
f 12
5.7700E+00
9.8267E+01
1.5700E+02
1.4500E+02
1.05E+02
2.895E
+00
f 13
5.7300E+00
1.9277E+02
3.3500E+02
2.7400E+02
1.55E+02
8.897E
+00
f 14
8.5900E+02
2.5498E+03
3.4100E+02
1.9600E+03
9.56E+03
1.11458E
+02
f 15
6.4200E+02
9.8398E+03
8.5400E+03
6.6300E+03
7.11E+03
1.00621E
+03
f 16
6.2800E-01
3.6752E+00
8.9600E-02
1.3000E+00
2.20E+00
2.548E
-02
f 17
5.7500E+01
1.1468E+02
6.5700E+01
1.1600E+02
8.72E+01
2.42514E
+01
f 18
6.4300E+01
1.6788E+02
1.9300E+02
1.3200E+02
1.46E+02
2.94587E
+01
f 19
3.6200E+00
8.9243E+00
5.4300E+00
7.8200E+00
5.10E+00
0.95689E
+00
f 20
2.4400E+01
2.3492E+01
1.9200E+01
2.0600E+01
2.20E+01
1.0584E+01
f 21
2.0000E+02
7.9256E+02
8.4600E+02
8.3400E+02
6.60E+02
9.22003E
+01
f 22
5.8700E+02
3.5099E+03
3.3900E+02
2.2200E+03
7.75E+02
1.15487E
+02
f 23
5.5700E+02
1.0798E+04
9.8900E+03
7.4000E+03
6.84E+03
1.69237E
+02
f 24
2.0000E+02
3.7872E+02
3.0000E+02
3.0000E+02
3.44E+02
9.2514E+00
f 25
2.7400E+02
3.8938E+02
.6800E
+02
3.0000E+02
3.41E+02
1.21022E
+02
f 26
2.4100E+02
4.2752E+02
2.9100E+02
3.9000E+02
2.11E+02
8.9154E+01
f 27
3.0200E+02
2.0812E+03
1.1800E+03
1.3200E+03
1.56E+03
7.90252E
+02
f 28
4.0000E+02
4.5930E+02
1.0700E+03
1.6300E+03
8.52E+02
1.55251E
+02
78
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Il calcule le niveau de symétrie et l'aplatissement (kurtosis) des populations obser-
vées et obtient les di�érences par rapport à une distribution gaussienne en calculant
une p-value à partir de la somme de leurs carrées.
Le résultat des tests de normalité est une p-value qui représente la dissemblance des
résultats des échantillons avec une loi normale. Un niveau de signi�cation α = 0.05 est
choisi. Si la p-value obtenue est plus élevée que α, elle indique que l'hypothèse nulle est
acceptée ce qui signi�e que la condition de la normalité est véri�ée.
La Table 3.4 montre les résultats des tests de la normalité (Kolmogorov-Smirnov et
Shapiro-Wilk) appliqués sur nos expérimentations.
Toutes les p-values obtenues à partir des tests de normalité sont inférieures au niveau
de signi�cation α conduisant au rejet de l'hypothèse nulle et donc les résultats de la
Table 3.3 ne sont pas normalement distribués.
Table 3.4: Tests de normalité.
Algorithme Kolmogorov-Smirnov Shapiro-Wilk
Statistique p− value Statistique p− valueICMAELILS .299 .000 .722 .000
TPC-GA .530 .000 .190 .000
SMADE .490 .000 .203 .000
fk-PSO .534 .000 .189 .000
PMBBO .372 .000 .529 .000
ABC-PP .337 .000 .461 .000
• Test de Levene (Levene, 1960)Il est utilisé pour véri�er s'il existe ou non une homogénéité de variance (homosce-
dasticity) entre k échantillons.
les résultats du test de Levene sont dans la Table 3.5. Ils montrent que les variances des
distributions des di�érents algorithmes ne sont pas homogènes pour certains problèmes.
Puisque les deux conditions de normalité et homogénéité des variances ne sont pas vé-
ri�ées, l'application des tests paramétriques est impossible ce qui nous conduit à appliquer
les tests non-paramétriques dans la prochaine section.
4.3 Tests non-paramétriques
Les tests non-paramétriques sont des tests basés sur le classement (ranking based tests)
utilisés lorsque les hypothèses imposées par les tests paramétriques ne sont pas remplies.
Ils sont connus pour être moins restrictifs et moins robustes que les tests paramétriques.
Cette section commence par étudier le comportement de l'algorithme ABC-PP dans une
comparaison par paires avec le reste des algorithmes considérés en utilisant le test de
79
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Table3.5:
Testde
hétéroscedasticité
deLevene.
Algorithm
ef 1
f 2f 3
f 4f 5
f 6f 7
f 8f 9
f 10
f 11
f 12
f 13
f 14
ICMAELILS
.01
.02
.02
.06
.01
.00
.01
.00
.01
.00
.01
.01
.01
.00
SMADE
.00
.00
.00
.03
.00
.01
.00
.05
.00
.00
.01
.02
.01
.01
TPC-G
A.00
.00
.04
.05
.01
.00
.00
.06
.01
.00
.01
.00
.00
.00
fk-PSO
.00
.05
.06
.06
.00
.00
.00
.00
.01
.00
.05
.01
.01
.01
PMBBO
.00
.00
.02
.07
.00
.00
.00
.00
.00
.00
.01
.00
.01
.00
ABC-PP
.00
.00
.02
.07
.00
.00
.00
.00
.00
.00
.01
.00
.01
.00
Algorithm
ef 1
5f 1
6f 1
7f 1
8f 1
9f 2
0f 2
1f 2
2f 2
3f 2
4f 2
5f 2
6f 2
7f 2
8
ICMAELILS
.0.00
.00
.06
.01
.00
.00
.01
.00
.00
.01
.01
.00
.01
SMADE
.00
.00
.00
.00
.01
.01
.00
.00
.00
.00
.01
.00
.00
.00
TPC-G
A.0
.01
.02
.06
.00
.00
.00
.00
.00
.01
.01
.01
.00
.00
fk-PSO
.01
.00
.00
.00
.01
.00
.02
.06
.01
.08
.01
.01
.01
.01
PMBBO
.00
.01
.01
.00
.01
.00
.00
.00
.00
.00
.00
.01
.01
.00
ABC-PP
.00
.00
.02
.07
.00
.00
.00
.00
.00
.00
.01
.00
.01
.00
80
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Wilcoxon. Nous nous concentrerons après sur une comparaison de 1xn avec ABC-PP
comme une méthode de contrôle. Le test de Friedman et ses dérivées sont alors appliqués.
En�n, les procédures post-hoc sont utilisées pour déceler les di�érences détectées par le
test de Friedman et ses alternatives (Derrac et al., 2011).
4.3.1 Comparaisons par paires : Test de Wilcoxon signed ranks
Le test de Wilcoxon est un test non paramétrique qui compare deux groupes appariés
(algorithmes) dans le but de détecter des di�érences signi�catives entre leurs comporte-
ments. Il est considéré comme l'équivalent non paramétrique du t-test. Le test calcule
essentiellement la di�érence entre chaque ensemble de paires et analyse ces di�érences. Le
test de Wilcoxon peut être utilisé pour accepter (ou rejeter) l'hypothèse nulle que deux
échantillons représentent deux populations di�érentes. Le test est e�ectué comme suit
(Garcia et al., 2009) :
• Calculer la di�érence signée pour chaque paire de données.
• Classer les valeurs absolues des di�érences (rangs moyens sont a�ectés en cas d'éga-
lité).
• Calculer R+, R− la somme des rangs des di�érences positives et les rangs des dif-
férences négatives respectivement. Les rangs des di�érences nulles sont répartis de
manière équitable entre les deux sommes. Un rang est ignoré en cas de nombre
impair de di�érences égales.
• Utiliser la valeur de T = min(R+, R−) pour déterminer la p-value p du test à l'aide
d'un tableau statistique appropriée (Zar, 2009).
L'hypothèse nulle est rejetée lorsque p < α.
Le test de Wilcoxon est e�ectué pour comparer l'algorithme ABC-PP avec chacun des
cinq autres algorithmes pris en compte dans l'expérimentation.
La Table 3.6 montre les valeurs de R+, R− et les p-values calculées pour toutes les
paires d'algorithmes impliquant ABC-PP.
Comme l'indique la Table, les p-values obtenues sont supérieures à α ce qui implique
l'acceptation de l'hypothèse nulle pour tous les pairs des algorithmes comparés. Ceci
signi�e que l'algorithme ABC-PP est meilleur que les algorithmes PMBBO, fk-PSO ,
TPC-GA , ICMAELILS et SMADE avec α = 0, 05.
81
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Table 3.6: Résultats du test de Wilcoxon.
Pair R− R+ p-value
ABC-PP vs ICMAELILS 228.0 48.0 .21
ABC-PP vs SMADE 299.0 1.0 .313
ABC-PP vs TPC-GA 405.0 1.0 .051
ABC-PP vs fk-PSO 377.0 1.0 .54
ABC-PP vs PMBBO 377.0 1.0 .54
4.3.2 Comparaison multiple avec une méthode de contrôle
L'inconvénient majeur de la comparaison par paires est qu'il n'est pas possible d'ex-
traire une conclusion à partir de plus d'une comparaison par paires. Cela est dû au fait
que les p-values des comparaisons sont indépendantes et en essayant de tirer une signi-
�cation statistique à partir d'elles, conduira à une perte de contrôle sur le taux d'erreur
coté famille (Family-Wise Error Rate FWER) (Derrac et al., 2011).
Un test de comparaison multiple avec une méthode de contrôle doit être utilisé pour com-
parer plus de deux algorithmes. Dans ce cas, le test de Friedman et ses extensions sont
les plus appropriés pour e�ectuer cette comparaison.
• Test de Friedman
Le test de Friedman (Friedman, 1937), est l'alternative non-paramétrique du test
d'ANOVA avec des mesures répétées. Il est utilisé pour tester les di�érences entre les
groupes lorsque la variable dépendante mesurée est ordinale. Il peut également être utilisé
pour les données continues qui enfreindraient les hypothèses nécessaires pour exécuter le
test ANOVA.
L'hypothèse nulle pour le test de Friedman statue sur l'égalité des médianes entre
les populations. La procédure du test de Friedman, comparant k algorithmes pour n
problèmes, est résumée comme suit :
1. Attribuer des rangs dans l'ordre croissant des algorithmes considérés pour chaque
problème i, du meilleur au pire (de 1 à k). En cas d'égalité, des rangs moyens sont
calculés.
2. Calculer Rj la moyenne des rangs de chaque algorithme :
Rj =1
n
n∑i=1
rji j = 1..k (3.8)
où rji est le rang de l'algorithme j pour le problème i.
3. Calculer la mesure de Friedman par l'équation (3.9) (Friedman, 1937).
82
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
M =12n
k(k + 1)
(∑j
R2j −
k(k + 1)2
4
)(3.9)
La signi�cation de M peut être calculée quand n > 10 et k > 5 mais lorsque la valeur de
k et/ou n dépasse ces seuils, la signi�cation de M peut être recherchée dans la table de
distribution χ2 avec k − 1 degrés de liberté (Sheskin, 2006).
• Test de Iman et Davenport
Le test de Iman and Davenport est un test non-paramètrique moins conservateur (Iman
and Davenport, 1980), dérivé du test de Friedman, son statistique est donnée par :
MID =(n− 1)M
n(k − 1)−M(3.10)
qui suit une distribution F avec k − 1 et (k − 1)(n − 1) degrés de liberté. Les tableaux
statistiques pour les valeurs critiques peuvent être trouvés dans (Sheskin, 2006).
Lorsque le nombre des algorithmes considérés est faible, le test de Friedman est moins
sensible aux di�érences entre les traitements. Cela est dû au fait que dans le test de Fried-
man, les observations sont classés au sein d'un problème (Derrac et al., 2011).
• Test des rangs alignés de Friedman
Dans le test des rangs alignés (Aligned ranks) de Friedman, la mesure de chaque
problème est la performance moyenne réalisée par tous les algorithmes pour ce problème.
Les observations alignés sont la di�érence entre la performance d'un algorithme pour un
problème donné et la valeur de sa mesure (Hodges and Lehmann, 1962).
Les observations alignées pour tous les algorithmes et tous les problèmes sont ensuite
classées à partir de 1 à nk. Ces rangs sont appelés les rangs alignés (Hodges and Lehmann,
1962).
La statistique du test est décrite dans l'équation (3.11) :
MAR =
(k − 1)
(∑kj=1 R
2j − (kn2)/4(kn+ 1)2
)kn(kn+ 1)(2kn+ 1)/6− (1/k)
∑ni=1 R
2i
(3.11)
où Ri est la somme des rangs du iime problème et Rj est la somme des rangs du jime
algorithme. La statistique du test est comparée avec une distribution χ2 avec k−1 degrés
de liberté.
• Test de Quade
Le test de Quade est souvent plus puissant que le test de Friedman (Quade, 1979). Il
élimine également les di�érences de blocs.
83
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
A la di�érence du test de Friedman, le test de Quade considère que les problèmes
n'ont pas la même importance en introduisant les gammes des problèmes dans le calcul
statistique du test. La gamme d'un problème est la di�érence entre le maximum et le
minimum pour tous les algorithmes (il y a n gammes : q1..qn).
La procédure du test de Quade est la suivante :
1. Le test commence par le calcul de rji comme le test de Friedman.
2. La gamme du problème qi est multiplié par la di�érence entre le rang au sein du
problème i, rji et le rang moyen k+12, pour obtenir l'équation (3.12)
Sji = qi
(rji − (k + 1)/2
)(3.12)
où Sji est la taille relative de chaque observation dans le problème, ajustée pour tenir
compte de l'importance relative du problème dans lequel elle apparaît (Conover, 1999).
Sj est la somme pour l'algorithme j :
Sj =n∑i=1
Sji (3.13)
Soit Wj =∑n
i=1 qirji j = 1..k.
La statistique du test de Quade est donnée par :
MQ = |(n− 1)B
A−B| (3.14)
où A et B sont donnés par :
A =n∑i=1
k∑j=1
Sj2i B =k∑j=1
S2j (3.15)
MQ suit une F-distribution avec k − 1 et (k − 1)(n − 1) degrés de liberté (Les valeurs
critiques peuvent être trouvées dans la Table A10 dans (Sheskin, 2006). Si A = B, le
point se trouve alors dans la région critique de la distribution statistique et la p-value est
égale à (1/k!)b−1 (Conover, 1999), (Derrac et al., 2011).
Si la p-value des tests de Friedman, Iman-Davenport, Friedman Aligned Ranks, et
Quade est inférieure au niveau de signi�cation choisi α alors l'hypothèse nulle est rejetée
ce qui signi�e qu'il y a des di�érences entre les algorithmes comparés (Derrac et al., 2011).
D'après la Table 3.7 qui représente les rangs moyens, les statistiques et p-values obtenus
des trois tests, les tests de Friedman, Friedman Aligned Ranks, et Quade illustrent ABC-
PP comme le meilleur algorithme de la comparaison avec un rang de 5.82142, 127.48214 et
5.81896 respectivement dans le même temps notre deuxième algorithme PMBBO est classé
en 3ime position par le test de Friedman avec un rang de 3.17857 tandis que Friedman
84
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
aligned et Quade le classent à la 4ime position avec un rang moyen de 76.21428 et 3.07512
respectivement.
Les p-values calculées par chaque test sont inférieures à α ce qui suggère l'existence
des di�érences signi�catives entre les algorithmes comparés. Dans la sous section suivante,
des procédures Post-hoc vont être utilisées pour déterminer la nature des di�érences entre
la méthode de contrôle ABC-PP avec les autres algorithmes.
Table 3.7: Rangs moyens des tests Friedman, Aligned Friedman et Quade
Algorithme Friedman Aligned Friedman Quade
ICMAELILS 4.44642 119.08928 4.65763
TPC-GA 1.94642 59.51785 1.83866
SMADE 3.107142 76.26785 3.14901
fk-PSO 2.5 48.42857 2.46059
PMBBO 3.17857 76.21428 3.07512
ABC-PP 5.82142 127.48214 5.81896
Statistic 79.64795 22.508262 31.57937
p-value 4.76899E-11 4.19022E-4 -2.22041E-16
4.3.3 Procédures Post-hoc
Le rejet de l'hypothèse nulle (équivalence des rangs) par les tests de Friedman, Fried-
man aligné, et de Quade peut seulement détecter des di�érences signi�catives sur l'en-
semble de la comparaison multiple. A�n d'e�ectuer des comparaisons valables entre l'algo-
rithme ABC-PP (la méthode de contrôle) et chacun des autres algorithmes, les procédures
post-hoc sont utilisés pour déterminer où se situent les di�érences spéci�ques. Dans ce
contexte, une famille de k − 1 hypothèses interdépendantes peut être dé�nie par rapport
à la méthode de contrôle et un test post-hoc peut obtenir une p-value qui détermine le
degré de rejet de chaque hypothèse.
La p-value de chacune des hypothèses dans la famille peut être obtenue par la conversion
des rangs calculés par chaque test à l'aide d'une approximation normale. La statistique
z pour comparer le iime et le jime algorithme pour chaque test de classement (Friedman,
alignés Friedman et Quade) est calculée comme suit (Derrac et al., 2011) :
• Friedman :
z =(Ri −Rj)√
k(k+1)6n
(3.16)
où Ri et Rj sont les rangs moyens des algorithmes comparés obtenus par le test de
Friedman.
85
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
• Aligned Friedman :
z =(Ri −Rj)√
k(k+1)6n
(3.17)
où Ri et Rj sont les rangs moyens des algorithmes comparés obtenus par le test de
Friedman (Derrac et al., 2011).
• Quade :
z =(Ti − Tj)√
k(k+1)(2n+1)(k−1)18n(n+1)
(3.18)
où Ti = Wi
n(n+1)/2, Tj =
Wj
n(n+1)/2, Wi et Wj sont les rangs sans ajustement moyen de
l'algorithme comparé obtenus par le test de Quade.
La valeur de z est utilisée dans toutes les procédures post hoc pour trouver la p-value
correspondante à partir d'une distribution normale. Cette valeur est comparée avec le
niveau de signi�cation α. La di�érence entre ces procédures est dans la manière avec
laquelle la valeur de α est ajustée pour compenser l'e�et de la comparaison multiple.
Les p-values pour chaque comparaison obtenues par le test de Friedman et ses alterna-
tives ne prennent pas en compte les comparaisons restantes. Pour traiter ce problème, il
est recommandé d'utiliser les p-values ajustées (APV) parce que les procédures post-hoc
changent le niveau de signi�cation α pour chaque paire de comparaison (Derrac et al.,
2011).
Les procédures post-hoc implémentées et leur p-values ajustées sont décrites ci-dessous
où pi est la p-value calculée pour la iime hypothèse et APVi est sa valeur ajustée (Derrac
et al., 2011).
1. Procédure de Bonferroni-Dunn
La procédure de Bonferroni-Dunn ajuste la p-value en divisant la valeur de α par
le nombre de comparaisons e�ectuées k − 1 (Dunn, 1961).
APVi = min((k − 1)pi, 1).
2. Procédure de Holm
C'est une procédure step down où les p-values pi obtenues à partir des k − 1 com-
paraisons sont classées dans un ordre croissant(1 à k − 1).
L'hypothèse H1 est rejetée par rapport à l'hypothèse Hi−1 si i est le plus petit en-
86
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
tier tel que pi > α/(k − 1). Si l'hypothèse nulle ne peut pas être rejetée, toutes les
hypothèses restantes sont retenues (Holm, 1979).
La p-value ajustée est :
APVi = min(max((k − j)pj), 1), 1 ≤ j ≤ i.
3. Procédure de Holland
Dans cette procédure, la valeur de α est ajustée de façon similaire à la méthode
de Holm. H1 est rejetée par rapport à Hi−1 si i est le plus petit entier tel que
pi > 1− (1− α)k−i (Holland, 1987).
APVi = min(max(1− (1− pj)k−j), 1), 1 ≤ j ≤ i.
4. Procédure de Finner
Dans cette procédure, H1 est rejetée par rapport à Hi−1 si i est le plus petit entier
tel que pi > 1− (1− α)(k−i)/i (Finner, 1993).
APVi = min(max(1− (1− pj)(k−1)/j, 1), 1 ≤ j ≤ i).
5. Procédure de Hochberg
Cette procédure rejette Hi−1 par rapport à H1 si i est le plus grand entier tel que
pi > α/(k − i) (Hochberg, 1988).
APVi = max((k − j)pj), k − 1 ≥ j ≥ i.
6. Procédure de Hommel
Cette procédure essaye de trouver le plus grand j pour lequel pn−j+k > kα/j où
1 ≤ k ≤ j. Si j existe, la procédure rejette toutes les hypothèses véri�ant pi ≤ α/j
sinon, toutes les hypothèses sont rejetées.
La APVi pour cette procédure est calculée par un algorithme qui peut être trouvé
dans (Hommel, 1988).
7. Procédure de Rom
Cette procédure opère de la même façon que la procédure de Hochberg, mais la
valeur de α est calculée par l'équation suivante (Rom, 1990) :
αk−i =[∑i−1
j=1 αj −
∑i−2j=1
(ik
)αi−jk−1−j]
i(3.19)
87
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
où αk−1 = α et αk−2 = α/2.
APVi : max((rk−j)pj), (k − 1) ≥ j ≥ i, où rk−j est obtenu de l'équation précédente
(rj = 1, 2, 3, 3.814, 4.755, ...).
8. Procédure de Li
L'approche de Li est basée sur deux étapes pour rejeter des hypothèses (Li, 2008) :
- Si pk−1 ≤ α alors rejeter toutes les hypothèses sinon accepter l'hypothèse associée
à pk−1.
- Rejeter toutes autres hypothèse Hi avec pi ≤ α(1− pk−1)/(1− α).
APVi : pi/(pi + 1− pk−1).
Résultats des procédures post-hoc
La Table 3.8 montre les p-values ajustées obtenues pour les procédures post-hoc en
utilisant les rangs des tests de Friedman, Friedman Aligned, et Quade. Les seuils de rejet
pour les procédures pour chaque test sont dans la Table 3.9.
D'après la Table 3.8 et la Table 3.9, nous pouvons remarquer que :
• L'algorithme ABC-PP est donné gagnant par toutes les procédures appliquées sur les
tests de Friedman et Quade. Les résultats obtenus dans la Figure 3.8 et Figure 3.10
montrent que les p-values obtenues par ces procédures sont très inférieures au seuil
de rejet (en noir dans les �gures). Ceci indique que ABC-PP est donné meilleur que
les autres avec une grande marge de rejet.
• Pour le cas du test de Friedman-Aligned, l'algorithme ABC-PP est meilleur que
fk-PSO, TPC-GA, PMBBO et SMADE par toutes les procédures.
• Les procédures de Hochberg, Hommel, Rom et Finner appliquées sur le test de
Friedman-Aligned ont montré que ICMAELILS est meilleurs que notre algorithme
ABC-PP. Cette di�érence entre les deux algorithmes(ABC-PP et ICMAELILS) est
minime (cf. Figure 3.9) et l'hypothèse nulle est rejetée avec une p-value très proche
du seuil du rejet.
• La procédure de Hochberg nécessite le plus petit niveau de con�ance α = 0.0125
(Bonferonni-Dunn n'utilise pas les valeurs ajustées).
En ce qui concerne les procédures post-hoc utilisées, les di�érences de puissance entre
les méthodes sont plutôt petites, avec certaines exceptions. Le test de Bonferroni-Dunn
ne doit pas être utilisé malgré sa simplicité, car il s'agit d'un test très conservateur et il
ne peux pas détecter de nombreuses di�érences.
Cinq procédures (Holm, Hochberg, Hommel, Holland, et Rom) ont un e�et semblable.
Bien que les procédures Hommel et Rom sont les plus puissants, ils sont aussi plus di�-
88
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Table3.8:
p-values
Ajustéespourlesprocédures
post-hoc
Test
iABC-PPvs
p-value
Procedures
Bonf
Holm
Hoch
Hom
mHoll
Rom
Finn
Li
Friedman
5TPC-G
A9.18E-15
4.59E-14
4.59E-14
4.59E-14
4.59E-14
4.60E-14
4.36E-14
4.60E-14
1.25E-14
4fk-PSO
5.73E-7
2.86E-6
2.29E-6
2.29E-6
2.29E-6
2.29E-6
2.18E-6
1.43E-6
7.83E-7
3SMADE
0.001372
0.006864
0.004118
0.004052
0.003039
0.004062
0.004052
0.002277
0.001841
2PMBBO
0.002026
0.0010131
0.004118
0.004052
0.004052
0.004062
0.004052
0.002526
0.002694
1ICMAELILS
0.0026823
0.0034116
0.0026823
0.0026823
0.0026823
0.0026823
0.0026823
0.0026823
0.0026823
FriedAligned
5fk-PSO
1.19E-9
5.97E-9
5.97E-9
5.97E-9
5.97E-9
5.97E-9
5.67E-9
5.97E-9
1.96E-9
4TPC-G
A5.46E-8
2.73E-7
2.18E-7
2.18E-7
2.18E-7
2.18E-7
2.08E-7
1.36E-7
9.01E-8
3PMBBO
0.016115
0.0080585
0.004835
0.0032565
0.0032235
0.004681
0032565
0.002657
0.0025235
2SMADE
0.016284
0.008142
0.004835
0.0032565
0.0032565
0.004681
0.0032565
0.002657
0.0025485
1ICMAELILS
0.019682
0.009841
0.019682
0.019682
0.019682
0.019682
0.019682
0.019682
0.019682
Quade
5TPC-G
A1.09E-5
5.45E-5
5.45E-5
5.45E-5
5.45E-5
5.45E-5
5.18E-5
5.45E-5
2.14E-5
4fk-PSO
0.00183
0.00919
0.00735
0.00735
0.00735
0.00733
0.00701
0.00459
0.00360
3PMBBO
0.0029526
0.0014763
0.0088578
0.0068738
0.0059052
0.0076144
0.0068738
0.0046746
0.004503
2SMADE
0.0034368
0.00171844
0.0088578
0.0068738
0.0068738
0.0076144
0.0068738
0.0046746
0.0050548
1ICMAELILS
0.0098386
0.0098386
0.0098386
0.0098386
0.0098386
0.0098386
0.0098386
0.0098386
0.0098386
89
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Table3.9:
Seuilsde
rejetdesprocédures
Test
Bonf-Dun
nHolm
Hochb
erg
Hom
mel
Holland
Rom
Finner
Li
Friedm
an0.
010.
050.
025
0.05
0.05
000.
025
0.05
000.
0385
Friedm
analigned
0.01
0.01
666
0.01
250.
025
0.01
6952
0.01
3109
0.03
0307
0.03
191
Quade
0.01
0.01
6666
60.
0125
0.01
6666
60.
0169
520.
0131
093
0.03
030
0.02
674
90
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
ciles à être appliquée. Une bonne alternative est d'utiliser le test Finner, qui est facile à
comprendre et o�re de meilleurs résultats que les autres, à l'exception de la procédure de
Li dans certains cas (Derrac et al., 2011).
Bonf−Dunn Holm Hochberg Hommel Holland Rom Finner Li
0
0.01
0.02
0.03
0.04
0.05
fk−PSOTPC−GAPMBBOSMADEICMAELILSSeuil de rejet
Figure 3.8: Résultats des procédures post-hoc, Test de Friedman
Bonf−Dunn Holm Hochberg Hommel Holland Rom Finner Li0
0,005
0,01
0,015
0,02
fk−PSOTPC−GAPMBBOSMADEICMAELILSSeuil de rejet
Figure 3.9: Résultats des procédures post-hoc, Test de Friedman Aligned
Bonf−Dunn Holm Hochberg Hommel Holland Rom Finner Li
0
0.005
0.01
0.015
0.02
0.025
0.03
0.035
TPC−GAfk−PSOPMBBOSMADEICMAELILSSeuil de rejet
Figure 3.10: Résultats des procédures post-hoc, Test de Quade
91
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
4.4 Estimation du contraste
Le test d'estimation du Contraste basée sur les médianes (Doksum, 1967) peut être
utilisé pour estimer la di�érence entre les performances de deux algorithmes. Il suppose
que les di�érences attendues entre les performances des algorithmes sont les mêmes pour
tous les problèmes. Par conséquent, ces performances sont ré�échies par l'amplitude des
di�érences entre elles dans chaque problème.
L'intérêt de ce test réside dans l'estimation du contraste entre les médianes des échan-
tillons du résultats compte tenu de toutes les comparaisons par paires. Le test obtient
une di�érence quantitative calculée par médianes entre deux algorithmes sur plusieurs
problèmes, il procède comme suit.
• Pour chaque paire des k (k = 6) algorithmes, calculer la di�érence entre les perfor-
mances des deux algorithmes pour chacun des n problèmes.
Di(u,v) = Moyerui −Moyervi . (3.20)
où i = 1..n ; u = 1..k ; v = 1..k et u ≤ v
• Trouver la valeur médiane de chaque groupe de di�érences (Zuv, qui peut être consi-
déré comme l'estimateur non ajusté des médianes des algorithmes u et v,Mu−Mv).
Puisque Zuv = Zvu, il n'est nécessaire de calculer Zuv que dans les cas où u < v.
Notez également que Zuu = 0.
• Calculer la moyenne de chaque ensemble de médianes avec le même indice, mu :
mu =
∑kj=1 Zuj
k, u = 1..k. (3.21)
L'estimateur de Mu −Mv est mu − mv, où u et v sont dans l'intervalle 1...k. Par
exemple, la di�érence entre M1 et M2 est estimée par m1 −m2.
Ces estimateurs peuvent être considérés comme une mesure globale avancée des per-
formances. Bien que ce test ne peut pas fournir une probabilité d'erreur associée avec le
rejet de l'hypothèse nulle d'égalité, il est particulièrement utile pour estimer la distance
par laquelle un algorithme surpasse l'autre.
Les résultats de l'estimation du contraste des algorithmes comparés sont dans la
Table 3.10 (Garcia et al., 2010).
Ces résultats viennent con�rmer ceux obtenus par les procédures post-hoc. En e�et,
dans la Table 3.10, les estimateurs de ABC-PP par rapport aux cinq algorithmes sont
négatives ce qui signi�e qu'il a obtenu des taux d'erreurs très bas par rapport aux esti-
mateurs médianes en le comparant aux algorithmes cités.
En plus, la ligne de PMBBO contient des valeurs négatives par rapport aux algorithmes
TPC-GA, SMADE et fk-PSO ce qui con�rme les résultats du test de Friedman en classant
PMBBO devant ces algorithmes.
92
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
La conclusion que nous pouvons tirer à partir de l'analyse statistique est que l'al-
gorithme ABC-PP montre une amélioration remarquable par rapport aux algorithmes
TPC-GA, fk-PSO, PMBBO, SMADE et ICMAELILS.
Même le deuxième algorithme proposé PMBBO a donné de bons résultats et il s'est
classé avant les algorithmes TPC-GA, SMADE et fk-PSO.
Table 3.10: Estimation du Contraste
ICMAELILS TPC-GA SMADE fk-PSO PMBBO ABCPP
ICMAELILS 0,000 -94,06 -67,51 -90,78 -65,03 43,91
TPC-GA 94,06 0,000 26,55 3,282 29,03 138,0
SMADE 67,51 -26,55 0,00 -23,27 2,479 111,4
fk-PSO 90,78 -3,282 23,27 0,000 25,74 134,7
PMBBO 65,03 -29,03 -2,479 -25,74 0,000 108,9
ABCPP -43,91 -138,0 -111,4 -134,7 -108,9 0,000
5 Réglage d'un contrôleur PID par l'approche ABC-PP
Pour appliquer l'algorithme ABC-PP pour le réglage des gains Kp, Ki, Kd d'un contrô-
leur PID, chaque combinaison de gains est considérée comme une source de nourriture
(solution candidate). L'objectif est de minimiser l'erreur entre la sortie et la sortie désirée
en utilisant la fonction fg dé�nit en Équation (2.23). L'algorithme proposé est utilisé pour
ajuster les paramètres d'un contrôleur PID pour commander le pendule inversé.
Une comparaison des performances de l'algorithme ABC-PP avec les algorithmes gé-
nétiques (AG) a été e�ectuée en utilisant les paramètres présentés dans la Table 3.11.
Nous avons utilisé la fonction objectif fg avec beta = log(2) pour comparer l'approche
ABC-PP avec les résultats des algorithmes génétiques(AG).
Nous avons mesuré les couts minimaux de la fonction objectif pour les deux algo-
rithmes, les résultats sont dans la Figure 3.11. L'évolution des gains du PID pour l'algo-
rithme ABC-PP est dans la Figure 3.12.
Nous pouvons remarquer que l'algorithme ABC-PP a atteint un coût plus petit que
les AG (2.90). Les erreurs de l'angle du pendule sont dans la Figure 3.13.
Le dépassement a été réduit à 0.01Rad tandis qu'il est de 0.06Rad pour les AG dans
les mêmes conditions.
Dans la Table 3.12, nous avons résumé les résultats de la comparaison entre notre
algorithme (ABC-PP) et les algorithmes génétiques pour 10 exécutions indépendantes.
Il est clair que les gains obtenus par ABC-PP améliorent les performances du système.
ABC-PP a obtenu de meilleurs temps de réponse en 7 cas, plus petit dépassement dans 9
cas par rapport aux algorithmes génétiques (cf. Table 3.12).
93
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
Table 3.11: Paramètres de ABC-PP pour l'optimisation d'un PID
Paramètre Valeur
Taille de la colonie (N) 30
Nombre Maximum d'évaluations 10000
Nombre de prédateurs 6
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 302.9
2.92
2.94
2.96
2.98
3
Cycles
Fonction
objective
ABC-PPGA
Figure 3.11: Valeurs minimales de la fonction objectif obtenues par ABC-PP et les AG)
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 300
5
10
15
20
25
Cycles
Gains
KpKdKi
Figure 3.12: Évolution des gains PID obtenus par ABC-PP
94
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
f
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
−0.2
0
Tiemps(s)
Angle(R
ad)
ABC-PPGA
Figure 3.13: Erreurs angulaires obtenues par ABC-PP et les AG
Table 3.12: Performance du pendule inversé contrôlé par PID (ABC-PP et les AG)
Exécution ABC-PP GA
Min �tness Tr(s) Omax Min �tness Tr(s) Omax
1 2.900 0.155 0.012 2.931 0.112 0.060
2 2.921 0.160 0.012 2.902 0.158 0.014
3 2.935 0.194 0.014 2.972 1.783 0.018
4 2.922 0.172 0.011 2.928 0.175 0.020
5 2.928 0.171 0.012 2.981 1.730 0.020
6 2.947 0.208 0.015 2.968 2.301 0.048
7 2.928 0.180 0.012 2.994 4.117 0.014
8 2.936 0.191 0.014 2.913 0.167 0.013
9 2.939 0.197 0.014 3.015 4.360 0.031
10 2.911 0.178 0.012 2.910 0.164 0.013
6 Conclusion
Dans ce chapitre, une tentative d'amélioration de l'algorithme d'optimisation par co-
lonie d'abeilles arti�cielles est présentée a�n d'accroitre son e�et de diversi�cation. Il a été
hybridé en remplaçant la phase des scouts avec l'algorithme prédateur et proies amélioré.
Pour valider l'algorithme obtenu (ABC-PP), une étude statistique a été réalisée en le
comparant à l'algorithme PMBBO présenté au chapitre 2 et quatre autres algorithmes
d'optimisation issus de la compétition CEC2013.
Dans le but d'appliquer les tests paramétriques, des conditions préalables ont été
véri�ées sans succès (Normalité et égalité de variance). Ces résultats nous ont conduit
à appliquer les tests non paramétriques de Wiilcoxon pour une comparaison de paires
95
Chapitre 3. Optimisation par colonie d'abeilles arti�cielles et prédateur et proiesamélioré
et ensuite le test de Friedman et ses alternatives pour une comparaison multiples. Les
résultats des tests non-paramétriques ont con�rmé les performances de l'algorithme ABC-
PP en le classant devant tous les autres algorithmes comparés.
Étant donnée que l'algorithme ABC-PP est meilleur que PMBBO, il va être utilisé
pour l'apprentissage d'un réseau de neurones RBF dans le but d'estimer les paramètres
du modèle dans la commande équivalente pour une commande sliding mode.
Les travaux présentés dans ce chapitre ont été validés par une communication inter-
nationale ICSC13.
96
Chapitre 4
Apprentissage hors ligne des réseaux de
neurones RBF par l'algorithme
ABC-PP
1 Introduction
L'apprentissage d'un réseau de neurones est une tâche d'optimisation dont le but est
de trouver un ensemble de poids qui minimise une erreur mesurée. Généralement, l'espace
de recherche est de grande dimension et, en fonction de la mesure d'erreur et les données
d'entrée, il peut contenir de nombreux optima locaux. Certains algorithmes d'appren-
tissage traditionnels tel que la rétro-propagation, utilisent une recherche de gradient, et
peuvent se retrouver piégés dans des optima locaux. En revanche, les algorithmes évo-
lutionnaires n'utilisent aucune information de gradient, et sont probablement les mieux
placés pour éviter d'être pris au piège du fait de leur exploration simultanée de plusieurs
régions de l'espace de recherche (Cantú-Paz and Kamath, 2005).
Une simple combinaison d'algorithmes évolutionnaires et réseaux de neurones est d'utili-
ser l'algorithme évolutionnaire pour la recherche des poids pour que le réseau fonctionne
comme souhaité. L'architecture du réseau est �xée par l'utilisateur avant l'expérience.
Dans cette approche, chaque individu de l'algorithme évolutionnaire représente un vec-
teur avec tous les poids du réseau.
Dans (Caudell and Dolan, 1989), (Yeremia et al., 2013) et (Mahajan and Kaur, 2013),
les poids obtenus sont utilisés dans le réseau sans aucun ra�nement . Ceci est particu-
lièrement utile lorsque la fonction d'activation des neurones est non di�érentiable et les
algorithmes d'apprentissage traditionnelles ne peuvent pas être utilisés. Une alternative
est d'utiliser la rétro-propagation ou d'autres méthodes pour a�ner les poids représentés
dans chaque individu (Kitano, 1990), (Skinner and Broughton, 1995). La motivation de
cette approche est que les algorithmes évolutionnaires identi�ent rapidement les régions
97
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
prometteuses de l'espace de recherche, mais ils ne peuvent pas a�ner très rapidement
les paramètres. Ainsi, les algorithmes évolutionnaires sont utilisés pour trouver un en-
semble prometteur des poids initiaux à partir duquel une méthode à base de gradient
peut rapidement atteindre un optimum.
Ces approches sont simples et ont donné de bons résultats, mais sou�rent de plusieurs
problèmes. Tout d'abord, étant donné que des couches adjacentes dans le réseau sont
habituellement entièrement connectées, le nombre total de poids est en O(n2), où n est
le nombre d'unités ce qui conduit à des individus plus longs et des populations plus
importantes, qui à son tour va entraîner des coûts de calcul plus élevés. Pour les petits
réseaux, les algorithmes évolutionnaires peuvent être utilisés pour rechercher des bons
poids e�cacement, mais ces méthodes ne peuvent pas être étendues vers des réseaux plus
larges (Cantú-Paz and Kamath, 2005).
Un autre inconvénient est le problème des permutations (Radcli�e, 1990). Le problème
est que, en permutant les n÷uds cachés d'un réseau, la représentation des poids dans
l'individu changerait mais le réseau reste le même. Pour s'y remédier, (Thierens et al.,
1991) proposent de placer le poids entrant et sortant d'un n÷ud caché l'un à côté de
l'autre. Une analyse réalisée par (Hancock, 1992) suggère que le problème de permutation
n'est pas aussi di�cile que cela est souvent présenté.
Dans ce chapitre, nous allons comparer l'algorithme proposé dans le précédent chapitre
(ABC-PP) avec quelques algorithmes évolutionnaires pour l'apprentissage des réseaux de
neurones RBF. La comparaison est réalisée à travers une étude statistique réduite pour
choisir l'approche à appliquer pour l'approximation des paramètres du modèle dans la
commande sliding mode des systèmes non linéaires.
Des simulations sur le système pendule inversé seront présentées dans la dernière
section en comparant les performances de l'algorithme ABC-PP et ceux de la rétro-
propagation de l'erreur pour l'apprentissage des réseaux de neurones RBF appliqués dans
la commande sliding mode.
2 Apprentissage des réseaux RBF par les algorithmes
évolutionnaires
2.1 Classi�cation des approches d'apprentissage
Les auteurs de (Miller et al., 1989) ont identi�é deux grandes approches pour utiliser les
algorithmes évolutionnaires pour concevoir la topologie des réseaux neuronaux : utiliser un
encodage direct pour spéci�er chaque connexion du réseau ou une spéci�cation indirecte
de la connectivité.
1) Encodage direct :
98
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
L'idée principale derrière l'encodage direct est que le réseau neuronal est considéré comme
un graphe orienté où chaque n÷ud représente un neurone et chaque arc est une connexion.
Une méthode courante de représenter des graphes orientés est avec une matrice de connec-
tivité binaire : le (i, j)ime élément de la matrice est 1 s'il y a un arête entre les n÷uds i
et j, et zéro autrement. Les algorithmes évolutionnaires codés en binaire semblent bien
adaptés pour l'encodage direct, car la matrice de connectivité peut être représentée sim-
plement en concaténant ses lignes ou ses colonnes (Miller et al., 1989), (Belew et al., 1991).
2) Encodage indirect :
Après avoir opté pour une topologie et un algorithme d'apprentissage particulier pour un
réseau, l'algorithme évolutionnaire est utilisé pour trouver les valeurs des paramètres qui
complètent la spéci�cation du réseau.
Par exemple, avec un réseau feedforward entièrement connecté, l'algorithme évolu-
tionnaire peut rechercher le nombre de couches et le nombre des unités par couche. Un
autre exemple serait de coder les paramètres d'un algorithme d'apprentissage particulier,
comme le momentum et le taux d'apprentissage de la rétro-propagation (Marshall and
Harrison, 1991). Cependant, cette méthode est limitée par le choix initial de la topologie
et de l'algorithme d'apprentissage.
2.2 Travaux antérieurs
Une version améliorée des algorithmes génétiques est utilisée dans (Leung et al., 2003)
pour l'ajustement de la structure et des paramètres d'un réseau de neurones. Un réseau
de neurones avec des commutateurs introduits dans les liens est proposé pour prédire les
tâches solaires. Tandis que (Mahajan and Kaur, 2013) a conçu une méthode souple pour
résoudre le problème du voyageur de commerce en utilisant les algorithmes génétiques
a�n de donner une approximation maximale du problème de la réduction des coûts.
Une approche génétique a été utilisée pour l'apprentissage des réseaux de neurones
à fonctions de bases radiales dans (da Mota et al., 2012), l'algorithme est utilisé pour
ajuster les poids entre la couche cachée et la sortie pour classi�er des problème de quatre
bases de données connues avec une précision entre 91 et 98%.
D'autres algorithmes évolutionnaires ont été appliqués récemment pour l'apprentissage
de réseaux de neurones, nous pouvons citer : Arti�cial Bees Colony (ABC) (Nandy et al.,
2012) et (Karaboga et al., 2007), Particle swarm optimization (PSO) (Liu et al., 2004) et
(Qasem and Shamsuddin, 2009), Di�erential Evolution (Si et al., 2012) et (Yu and He,
2006), Arti�tial Immune Algorithm (AIS)(Castro and von Zuben, 2001).
99
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
3 Approximation des fonctions par les réseaux RBF
3.1 Approximation des fonctions
Soit y = f(x) une fonction avec x ∈ RD et y ∈ RD et soit Hi, i = 1 . . . N un ensemble
�ni de fonctions de bases.
La fonction f peut être écrite sous la forme (4.1).
y = f(x) = f(x) + r(x) (4.1)
où r(x) est le résidus.
La fonction f(x) peut être approximée par f(x) donnée par la forme (4.2)
y ' f(x) =N∑i=1
wihi(x) (4.2)
L'objectif est de minimiser l'erreur en réglant les paramètres de wi de manière appropriée.
Un choix possible pour l'erreur d'approximation est la norme L2 de la fonction résiduelle
r(x) dé�nie comme :
‖r(x)‖L2
2 =
∫r(x)2dx (4.3)
3.2 Approximation des fonctions par les réseaux RBF
La sortie d'un réseau RBF est donnée par l'équation (4.4)
y = f(x) =N∑i=1
aiφi(x, µi, σi) (4.4)
En utilisant le réseau de l'équation (4.4), la fonction f(x) peut être écrite sous la forme :
y =N∑i=1
aiφi(x, µi, σi) + r(x) = y + r(x). (4.5)
L'erreur peut être minimisée en ajustant de manière appropriée, les poids ai, les centres
µi et les largeurs σi.
Lorsque la fonction f(x) est inconnue, et en disposant d'un ensemble de couples Entrées-
Sorties (xi, yi) , i = 1..n, nous pouvons construire un réseau RBF et l'apprendre à suivre
la fonction f(x).
L'apprentissage de ce réseau est un problème d'optimisation pour choisir les valeurs des
100
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
centres, poids et largeurs a�n de minimiser le critère (4.6) :
J2(µ, σ, a) =n∑i=1
||yi − yi||2. (4.6)
4 Approche d'apprentissage des réseaux RBF par l'al-
gorithme ABC-PP
L'apprentissage des réseaux de neurones à fonctions de bases radiales avec N neurones
cachés peut être considéré comme un problème d'optimisation dont l'objectif est de réduire
l'erreur entre la sortie désirée de la fonction à approximer et la sortie du réseau.
Un algorithme d'apprentissage pour ces réseaux doit déterminer l'architecture du ré-
seau et ses paramètres à savoir le vecteur des centres µ, celui des largeurs σ des fonctions
gaussiennes et le vecteur des poids des neurones a entre la couche cachée et la couche de
sortie.
L'algorithme ABC-PP peut être utilisé pour l'apprentissage hors ligne du réseau RBF a�n
d'approximer une fonction en minimisant la fonction objectif J donnée en équation (4.6).
Dans ce cas, une source de nourriture dans l'algorithme ABC-PP est constituée de
la concaténation des vecteurs des centres, des largeurs et des poids comme il est montré
dans l'équation (4.7).
sni = [µ, σ, a]. (4.7)
La procédure d'apprentissage consiste à suivre les étapes suivantes (Salem and Khel�,
2014a) :
• Collecte des données d'apprentissage.
Un ensemble d'entrées choisi aléatoirement est présenté à la fonction et les sorties
correspondantes sont générées. Cet ensemble est divisé en base d'appretisage (60%),
base de validation (20%) et base de test (20%).
• Choix du nombre de neurones.
Le nombre des neurones N dans la couche cachée est déterminé empiriquement en
essayant déférentes valeurs.
• Choix des paramètres de l'algorithme d'apprentissage ABC-PP (nombre de sources
de nourriture et nombre de prédateurs ).
• Initialisation des sources de nourritures initiales de façon aléatoire.
• Apprentissage et validation des résultats.
Le principe consiste à mesurer les performances pendant l'apprentissage sur une
base de validation qui est di�érente de la base d'apprentissage. Lorsque le modèle
n'est pas trop ajusté aux données de l'apprentissage, les fonctions coûts sur la base
101
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
de validation et d'apprentissage diminuent ensemble. Lorsque le modèle commence à
être surajusté, la fonction de coût sur la base d'apprentissage continue de diminuer,
alors que la fonction coût sur la base de validation augmente.
• Sauvegarde de la matrice des paramètres du réseau de neurones.
Un schéma général de la procédure d'apprentissage hors ligne des réseaux RBF par
l'algorithme ABC-PP pour l'approximation des fonctions est donné dans la Figure 4.1
x Fonction
Réseau
RBF
ABC-PP
y−
+
y
[µ, σ, a]
Figure 4.1: Procédure d'apprentissage des réseaux RBF par l'algorithme ABC-PP
4.1 Analyse statistique de l'apprentissage des réseaux RBF par
les algorithmes évolutionnaires
Pour étudier les performances de l'algorithme d'optimisation proposé ABC-PP pour
l'apprentissage des réseaux RBF, il sera comparé aux algorithmes : PMBBO, AG et ABC.
Les algorithmes comparés seront appliqués pour l'apprentissage des réseaux RBF pour
l'approximation de 10 fonctions citées ci dessous (Digalakis and Margarits, 2000) :
� Sphere
F1(x1 · · ·xD) =D∑i=1
x2i (4.8)
� Ackley
F2(x1 · · ·xD) = −20exp(−0.2
√√√√ 1
D
D∑i=1
x2i )− exp(1
D
D∑i=1
cos(2πxi)) + 20 + e (4.9)
� Ridge
F3(x1 · · ·xD) =D∑i=1
(i∑
j=1
xj)2 (4.10)
102
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
� Rosenbrock
F4(x1 · · ·xD) =D−1∑i=1
100 (xi+1 − x2i )2 + (xi − 1)2 (4.11)
� Schwefel
F5(x1 · · ·xD) =D∑i=1
(−xisin(√|xi|)) + α ·D, α = 418.982887 (4.12)
� Rastrigin
F6(x1 · · ·xD) = D ∗ 10 +D∑i=1
(x2i − 10 cos(2πxi)) (4.13)
� Trid
F7(x1 · · · xD) =D∑i=1
(xi − 1)2 −D∑i=1
(xixi−1) (4.14)
� Sum squared
F8(x1 · · ·xD) =D∑i=1
ix2i (4.15)
� Power Sum
F9(x1 · · ·xD) =D∑i=1
[(D∑i=1
(xji )
)− bj
]2(4.16)
� Griewangk
F10(x1 · · ·xD) = −n∏i=1
cos
(xi√i
)+
n∑i=1
x2i4000
+ 1 (4.17)
Pour e�ectuer la comparaison, chaque algorithme est exécuté 30 exécutions indépen-
dantes pour l'apprentissage d'un réseau RBF pour l'approximation de chaque problème
(D = 10). Le critère d'arrêt est soit le nombre maximum des évaluations de la fonction
objectif ou lorsque J ≤ ε ou J est l'erreur d'apprentissage donnée dans l'équation (4.6).
Les paramètres des algorithmes utilisés sont donnés dans la Table 4.1 et Table 4.2.
Les erreurs moyennes d'apprentissage obtenues à partir des 30 exécutions sont illustrées
dans la Table 4.3. Ces résultats seront analysés avec les tests de Wilcoxon et estimation
du Contraste.
103
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
Table 4.1: Paramètres des algorithmes PMBBO, ABC et ABC�PP pour l'apprentissagedes réseaux RBF.
PMBBO ABC-PP et ABC
Paramètre Valeur Paramètre ABC-PP ABC
Nombre d'évaluations 100D Nombre d'évaluations 100D 100D
Nombre d'habitats N 100 Nombre d'abeilles N 100 100
E,I 1 Limit / 3
/ / Nombre de scout / 1
Nombre de prédateurs npred 6 Nombre de prédateurs 6 /
Neurones cachés 20 Neurones cachés 20 20
ε 1e− 6 ε 1e− 6 1e− 6
Table 4.2: Paramètres des algorithmes Génétiques pour l'apprentissage hors ligne desréseau RBF
Paramètre Valeur
Chromosomes 100
Nombre des évaluations 100D
Taux de croisement 0.6
Type de croisement Deux points
Taux de Mutation 0.01
type de Mutation bit �ip
Neurones cachés 20
ε 1e− 6
Table 4.3: Valeurs moyennes du critère J pour les 10 fonctions
Fct ABC-PP ABC PMBBO AG
F1 5.1230 6.8940 6.4120 8.0160
F2 21.2510 22.9950 25.7850 24.0110
F3 12.0201 18.1660 19.0550 38.1090
F4 30.1580 30.9870 35.3290 36.5560
F5 99.1250 101.2540 114.7710 120.3640
F6 41.9000 41.5620 47.2280 43.0000
F7 211.5440 249.7100 241.6500 243.2000
F8 121.1000 121.1190 122.8900 124.4050
F9 18.2800 19.2210 24.3060 24.6000
F10 54.1130 60.3250 61.1040 62.0240
104
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
4.1.1 Test de Wilcoxon signed ranks
Le test de Wilcoxon est réalisé pour comparer les approches d'apprentissage des ré-
seaux de neurones pour l'approximation des fonctions citées ci-dessus.
La Table 4.4 montre les valeurs des di�érences positives R+, négatives R−, et les valeurs
des p-values calculées pour toutes les paires en utilisant SPSS.
D'après la Table,
• ABC-PP a un avantage signi�catif sur les autres algorithmes (ABC, PMBBO et
AG) avec un niveau de signi�cation α = 0.01,
• ABC est meilleur que les algorithmes génétiques avec α = 0.05.
• les hypothèses � AG est meilleur que ABC � et � AG est meilleur que PMBBO �
sont rejetées.
Table 4.4: Résultats du test Wilcoxon pour l'apprentissage des réseaux RBF
Pair R− R+ p-value
ABC-PP vs ABC 2 53 0.009
ABC-PP vs. AG 0 55 0.005
ABC-PP vs. PMBBO 45 10 0.005
PMBBO vs. ABC 42 13 0.139
AG vs. PMBBO 15 40 0.203
ABC vs. AG 8 47 0.047
4.1.2 Estimation du Contraste
Le test Estimation du Contraste est utilisé pour avoir une vue globale sur tous les
paires des algorithmes considérés. Les résultats sont détaillés dans la Table 4.5.
Les résultats obtenus de ce test viennent con�rmer celles du test de Wilcoxon. Elles
mettent en évidence que l'algorithme ABC-PP est meilleur que les autres pour ce problème
( Valeurs négatives par rapport aux autres algorithmes).
Nous ne pouvons pas statuer que ABC-PP est meilleurs que les autres en général mais en
se basant sur le théorème de "No free lunch" (Wolpert and Macready, 1997), nous pouvons
juste dire que ABC-PP a obtenu de meilleurs résultats pour le problème de l'apprentissage
des réseaux RBF en particulier dans les conditions considérées mais nous ne pouvons en
aucun cas généraliser (Salem and Khel�, 2014a).
105
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
Table 4.5: Résultats du test d'estimation du contraste pour l'apprentissage des réseauxRBF
ABC-PP ABC PMBBO AG
ABC-PP 0.000 -1.869 -3.898 -5.767
ABC 1.869 0.000 -2.993 -4.219
PMBBO 4.861 2.993 0.000 -1.227
AG 6.088 4.219 1.227 0.000
5 Commande sliding mode par l'approche RBF-ABC-
PP
5.1 Architecture proposée
L'approche proposée d'apprentissage hors ligne des réseaux de neurones RBF par l'al-
gorithme (ABC-PP) peut être utilisée pour l'identi�cation des paramètres d'un système
non-linéaire pour les exploiter ensuite dans une commande sliding mode. En e�et, l'iden-
ti�cation des paramètres réels d'un modèle est une sorte d'approximation de fonctions
où, en utilisant un ensemble expérimental de données Entrée/Sortie, nous estimerons le
modèle inconnu du système réel.
Pour résoudre le problème de dépendance du modèle et l'obligation de connaitre les para-
mètres du système non linéaire dans la commande slidng mode (Équation (1.31) page 32),
nous proposons d'utiliser un réseau de neurones RBF pour estimer les paramètres des deux
fonctions non linéaires qui composent le système f(x) et g(x). Le réseau RBF proposé est
donné dans la Figure 4.2 (Salem and Khel�, 2014a).
Le réseau proposé a comme entrée le vecteur d'état x et deux sorties : f(x) et g(x).
La sortie du réseau est donnée par l'équation (4.18)
f(x) = a1TΦ(x).
g(x) = a2TΦ(x). (4.18)
où Φ(x) est le vecteur des sorties des neurones cachés, a1 et a2 sont les vecteurs corres-
pondants aux poids des deux sorties.
En remplaçant les fonctions f(x) et g(x) dans l'équation (1.31) par les estimations f(x)
et g(x), la commande équivalente devient :
ue =1
g(x)
[−f(x) + xd − λx+ λxd
](4.19)
Le schéma bloc de la commande sliding mode à base des réseaux RBF et l'algorithme
ABC-PP est donné par la Figure 4.3 (Salem and Khel�, 2014a).
106
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
x1
x2
xNx
f(x)
g(x)
a11
a12a1N
a21
a22
a2N
Figure 4.2: Architecture de la commande équivalente par réseau RBF et ABC-PP.
yd(t) Commande
équivalente
e(t)
Ksign(s)
∑RBF ABC-
PP
s = e+ λes
ue(t)+
uc(t)
+
Système
x(t)f(x), g(x)
u(t) y(t)
−
Figure 4.3: Commande Sliding mode par les réseaux RBF et ABC-PP
5.2 Résultats de simulation
L'approche proposée d'apprentissage hors-ligne RBF-ABC-PP est utilisée pour la com-
mande sliding mode du pendule inversé. Avant d'exploiter le réseau de neurones RBF dans
le processus de commande, nous avons commencé par apprendre le réseau par l'algorithme
ABC-PP et le comparer avec le très connu, algorithme de rétro-propagation.
5.2.1 Apprentissage du réseau RBF
Le réseau RBF utilisé pour estimer le modèle du pendule inversé a pour entrée le
vecteur d'état [θ, θ] et la sortie est constituée des deux fonctions f(θ, θ) et g(θ, θ). Les
données collectées de la base d'apprentissage sont présentées dans la Figure 4.4.
Le nombre des neurones N dans la couche cachée du réseau est déterminé empirique-
ment. Nous avons obtenu les valeurs N = 16 pour l'algorithme ABC-PP et N = 16 pour
la rétro-propagation.
L'apprentissage du réseau est réalisé hors-ligne en utilisant 60% de la base et 20%
pour la validation avec les paramètres donnés dans la Table 4.6.
L'apprentissage du réseau est e�ectué séparément par les deux algorithmes ABC-PP et
rétro-propagation sur le même ensemble des données jusqu'à atteindre le critère d'arrêt qui
est soit un nombre d'itérations/ cycles ou quand l'erreur quadratique de l'apprentissage
J descend au dessous d'un seuil ε.
107
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
L'évolution de J est représentée dans la Figure 4.5 où nous pouvons remarquer que
l'algorithme de rétro-propagation tarde jusqu'à l'itération 200 pour descendre au dessous
de 1 et atteindre des valeurs plus au moins acceptables. Dans le même temps, ABC-PP a
atteint les mêmes valeurs après le 10ieme cycle.
L'erreur obtenue avec l'algorithme ABC-PP est 1e−06 et celle de la rétro-propagation
est égale à 2e− 04.
Nous remarquons aussi que l'algorithme de rétro-propagation tombe souvent dans des
minima locaux où l'erreur quadratique n'évolue pas pendant plusieurs époques (jusqu'à 20
itérations sans changement) alors que ABC-PP évolue rapidement vers la valeur minimale.
Ceci est dù à la diversi�cation apportée par le modèle prédateur et proie amélioré qui
permet d'explorer d'autres zones de l'espace de recherche.
0 50 100 150 200 250 300 350 400 450 500
−1
0
1
Echantillons
Angle(R
ad)
Figure 4.4: Base d'apprentissage
Table 4.6: Paramètres des algorithmes ABC-PP et rétro-propagation
ABC-PP Rétro-propagation
Paramètre Valeur Paramètre Valeur
Nombre de cycles (cmax) 500 Nombre d'itérations 500
Nombre d'abeilles N 200 Taux d'apprentissage 0.6
Nombre de prédateurs 5 Momentum 0.9
Neurones cachés 16 Neurones cachés 16
Entrées θ, θ Entrées θ, θ
Sorties f(θ, θ) et g(θ, θ) Sorties f(θ, θ) et g(θ, θ)
ε 1e− 6 ε 1e− 6
108
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
0 50 100 150 200 250 300 350 400 450 500
0
2
4
6
8
10
12
Itérations/ Cycles
Erreurd'apprentissage Rétropropagation
ABC-PP
Figure 4.5: Évolution de l'erreur d'apprentissage pour ABC-PP et rétro-propagation
5.2.2 Application à la commande sliding mode
Les deux réseaux obtenus par apprentissage par la rétro-propagation et ABC-PP sont
utilisés chacun à son tour pour estimer les paramètres du pendule inversé a�n de les
injecter dans une loi de commande sliding mode.
Le pendule inversé est contrôlé pour ramener la tige à suivre une trajectoire sinusoïdale
en utilisant le réseau RBF dans la boucle de la commande sliding mode pour générer la
partie équivalente de la commande, nous avons obtenu les résultats de la Figure 4.6 où
la position désirée et les positions réelles (ABC-PP et rétro-propagation) de la tige du
pendule sont présentées. Les erreurs de poursuite de l'angle sont dans la Figure 4.7.
D'après ces Figures, le réseau obtenu par l'algorithme ABC-PP ramène le pendule
inversé à suivre la trajectoire après un temps de 0.5s avec une erreur au voisinage de zéro
(cf. Figure 4.7). Dans la même �gure, l'algorithme de rétro-propagation n'a pas obtenu
les mêmes performances d'apprentissage d'où la di�érence remarquée entre la trajectoire
désirée et réelle (±0.05Rad).
Ces di�érences de performances sont justi�ées par les résultats de l'apprentissage des
deux réseaux RBF. Les erreurs d'estimation pour les fonctions f et g pendant la commande
sont montrées dans les Figures 4.8 et 4.9.
Il est très clair que le réseau RBF avec ABC-PP a donné une meilleure estimation
des deux composantes du modèle du pendule que le réseau avec rétro-propagation. Cette
supériorité du réseau ABC-PP-RBF justi�e bien les résultats de l'erreur de poursuite de
la Figure 4.7. Le signal de la commande sliding mode en utilisant l'algorithme ABC-PP
ne présente pas de chattering comme il est illustré dans la Figure 4.10.
109
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
0 1 2 3 4 5 6 7 8 9 10
−0.1
0
0.1
0.2
Temps(s)
Angle(R
ad)
Angle désiréAngle , ABC-PPAngle , Rétro-propagation
Figure 4.6: Positions angulaires désirée et réelles (ABC-PP et rétro-propagation)
0 1 2 3 4 5 6 7 8 9 10
0
5 · 10−2
0.1
0.15
Temps(s)
Erreurangulaire(Rad)
ABC-PPRetropropagation
Figure 4.7: Erreurs Angulaires e(t) (ABC-PP et rétro-propagation )
0 1 2 3 4 5 6 7 8 9 10
−1
0
1
Temps(s)
Erreurd'estimationf(x)
Rétro-propagationABC-PP
Figure 4.8: Erreur de f(x) pendant la commande sliding mode(ABC-PP etrétro-propagation)
110
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
0 1 2 3 4 5 6 7 8 9 100
0.5
1
Temps(s)
Erreurd'estimationg(x)
RétropropagationABC-PP
Figure 4.9: Erreur de g(x) pendant la commande sliding mode (ABC-PP etrétro-propagation)
0 1 2 3 4 5 6 7 8 9 10
−1
0
1
Temps(s)
Signal
decommande
Figure 4.10: Signal de commande sliding mode (ABC-PP-RBF)
5.2.3 Test de robustesse
Le problème des réseaux dont l'apprentissage est réalisé hors ligne est qu'ils ne peuvent
pas approximer avec exactitude les données entachées de bruit. la solution est donc de
refaire l'apprentissage.
Pour tester la robustesse du réseau RBF avec ABC-PP, nous avons injecté un bruit blanc
dans la sortie du système (cf. Figure 4.11).
Le réseau n'arrive pas à réagir face à ce bruit d'où l'accroissement de l'erreur d'esti-
mation pour les fonctions f et g comme le montrent les Figure 4.12 et 4.13.
L'utilisation de tel bruit et la détérioration des performances d'approximation du
réseau conduisent forcement à une erreur de poursuite moins bonne que l'antérieur comme
111
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
il est montré dans la Figure 4.14 et l'apparition du phénomène du chattering (Oscillations
sur la courbe du signal de commande) dans la Figure 4.15 est la conséquence de la mauvaise
estimation du réseau RBF.
0 1 2 3 4 5 6 7 8 9 10
−0.5
0
0.5
1·10−2
Temps(s)
Bruit
Figure 4.11: Bruit blanc
0 1 2 3 4 5 6 7 8 9 10
−1
0
1
Temps(s)
Erreurestimationf(x)
Figure 4.12: Erreur d'estimation de la fonction f(x) avec bruit
112
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
0 1 2 3 4 5 6 7 8 9 10
1
1.05
1.1
Temps(s)
ErreurEstim
ationg(x)
Figure 4.13: Erreur d'estimation de la fonction g(x) avec bruit
0 1 2 3 4 5 6 7 8 9 10
0
2
4
6·10−2
Temps(s)
Erreurangulaire(rad)
Figure 4.14: Erreur angulaire de la commande sliding mode (ABC-PP-RBF) avec bruit
0 1 2 3 4 5 6 7 8 9 10
−1
0
1
Temps(s)
Signal
decommande
Figure 4.15: Sortie du contrôleur sliding mode (ABC-PP-RBF) avec bruit
113
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
6 Analyse, critiques et motivations pour le chapitre sui-
vant
L'objectif de l'apprentissage d'un réseau de neurones RBF est de trouver une com-
binaison de paramètres (poids, largeurs et centres) a�n d'approximer un comportement
souhaité. Ceci peut être vu comme un problème d'optimisation où une solution candidate
est constituée de la concaténation des paramètres d'un réseau, la fonction objectif est une
fonction de l'erreur entre le comportement réel du réseau et le comportement désiré.
Dans ce chapitre, nous avons appliqué l'algorithme ABC-PP qui est une hybridation
de l'algorithme colonie d'abeilles arti�cielles (ABC) pour l'apprentissage des réseaux de
neurones RBF. L'algorithme a été d'abord validé par une comparaison avec d'autres algo-
rithmes de la même famille en les utilisant dans l'apprentissage des réseaux de neurones
RBF pour l'approximation des fonctions. Les résultats obtenus étaient prometteurs où
notre algorithme s'avérait le mieux placé.
Sur la base de ces résultats, nous avons appliqué l'algorithme pour l'apprentissage
d'un réseau de neurones RBF pour estimer les paramètres des fonctions plus complexes :
le modèle d'un système non linéaire.
Cette application vient résoudre une des limites les plus pénalisantes de la commande
sliding mode des systèmes non linéaires, à savoir, la dépendance du modèle et la nécessité
de connaitre ses paramètres à l'avance (cf. � 6.2.3, page 32).
Nous avons commencé par collecter les données entrées/sorties du système non linéaire
(pendule inversé) pour les utiliser dans l'apprentissage du réseau RBF, la sortie de ce
réseau serais une estimation des fonctions du modèle dynamique du système.
Après avoir trouvé la bonne combinaison des paramètres du réseau RBF par l'algo-
rithme ABC-PP, nous avons injecté ce réseau dans la boucle de la commande sliding mode
pour calculer la commande équivalente.
Les résultats obtenus dans un environnement idéal ont été acceptables, mais l'appli-
cation des algorithmes d'optimisation pour l'apprentissage des réseaux de neurones RBF
pour l'estimation des paramètres des systèmes non linéaires peut rencontrer les limites
suivantes :
• L'apprentissage des réseaux de neurones RBF par tels algorithmes nécessite la dis-
ponibilité de toute la base des données de l'apprentissage, ce qui ne peut pas être
le cas quand le système n'est pas disponible pour collecter les données comme les
machines industrielles déjà en fonctionnement.
• Le fait que le nombre des neurones doit être déterminé par tâtonnement, constitue un
handicap pour l'algorithme d'apprentissage proposé puisque ce processus empirique
combiné à l'aspect stochastique de l'algorithme ABC-PP diminue les chances de
trouver un ensemble optimal de paramètres pour le réseau.
114
Chapitre 4. Apprentissage hors ligne des réseaux de neurones RBF par l'algorithmeABC-PP
• Les systèmes non linéaires sont généralement sujets à des incertitudes paramétriques
où l'environnement altère les paramètres du système par la chaleur, frottement et
autres.
Ces incertitudes a�ectent le système conduisant le réseau appris à partir de ces
données, à fournir une sortie divergente par rapport à la sortie réelle du système.
• L'environnement de fonctionnement des systèmes non linéaires n'est pas toujours
idéal, l'existence de phénomènes naturelles tel que les vents et les frottements génère
des bruits in�uant ainsi sur la robustesse du contrôleur sliding mode, celui-ci, et en
essayant de compenser ces bruits et incertitudes va utiliser de grands gains ce qui
conduit à l'apparition du phénomène de chattering (Voir les résultats du test de
robustesse de ce chapitre).
Ces limites nous ramènent à conclure que l'algorithme ABC-PP en particulier, n'est pas
approprié pour l'apprentissage des réseaux de neurones utilisés pour l'approximation des
systèmes non linéaires réels, non pas parce qu'il est moins performant mais les circons-
tances d'utilisation de tels réseaux le rendent inapproprié et déprécient ses performances.
Cette conclusion nous oblige à parier sur un autre type d'algorithmes d'apprentissage, à
savoir l'apprentissage enligne a�n de réagir en temps réel aux changement qui caractérisent
les systèmes non linéaires.
L'application de l'algorithme ABC-PP a été le sujet d'une communication internatio-
nale WCCS14.
snpredi = snbi + ρ(1− ccmax
)
snic+1 = snic + µρe−|dm|(snimax − snimin)
115
Chapitre 5
Apprentissage en ligne des réseaux de
neurones RBF par l'approche
GAP-EKF
1 Introduction
Plusieurs techniques ont été développées pour l'apprentissage des réseaux RBF. Néan-
moins, ces approches sou�rent d'un problème pénalisant où il faut avoir la totalité de la
base d'apprentissage, qui est chose di�cile voir impossible dans la réalité.
Avec cette contrainte, le réseau de neurones obtenu ne pourra pas réagir aux change-
ments dûs à une variation du comportement du système ou un bruit de mesure. Dans ce
cas, nous serons alors obligés de réapprendre de nouveau le réseau de neurones.
L'apprentissage en ligne apparait comme une bonne alternative pour combler ces in-
su�sances. L'idée dans ce type d'algorithmes est de modi�er les paramètres du réseau
RBF à fur et à mesure que des couples entrées-sorties sont reçus (Haykin, 1999). Parmi
les algorithme d'apprentissage en ligne les plus utilisés nous trouverons l'approche RAN
(Resource Allocation Network) et son extension RANEKF (RAN extended Kalman Filter)
proposée par (Kadirkamanathan and Niranjan, 1993) où un �ltre de Kalman est utilisé
pour ajuster les paramètres des neurones.
MRAN, l'amélioration de l'algorithme RAN, permet de combiner les critères de crois-
sance RAN avec une stratégie d'élagage pour obtenir une structure minimale du réseau,
mais cet algorithme a une grande complexité de calcul (Li et al., 2000).
Dans ce chapitre, nous présenterons un nouvel algorithme d'apprentissage séquentiel
(online) basé sur la modi�cation des paramètres du réseau par un �ltre de Kalman étendu
à chaque présentation de nouveaux couples de données Entrées/Sorties. une autre carac-
téristique de cet algorithme est qu'il utilise une approche Growing and Pruning (GAP)
pour calculer le nombre de neurones nécessaires pour chaque couple de données (Salah-
116
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
shoor and Jafari, 2007). En e�et, le réseau commence avec zéro neurones et à fur et à
mesures que les données sont présentées, le nombre de neurones s'accroit ou diminue selon
la complexité et le besoin.
La particularité de l'algorithme GAP-EKF est que les calculs sont faites par rapport
au neurone le plus proche contrairement aux algorithmes MRAN et RAN où la totalité
des neurone sont concernés.
L'algorithme GAP-EKF est utilisé pour l'apprentissage enligne d'un où plusieurs ré-
seaux de neurones RBF destinés à l'approximation des paramètres du système non linéaire
pendule inversé a�n de palier aux problèmes de la commande sliding mode à savoir la dé-
pendance du modèle et la connaissance à priori de ses paramètres.
Pour améliorer les performances de la commande sliding mode, nous avons utilisé un
contrôleur �ou pour calculer le gain K de la partie corrective et ainsi éliminer l'autre
limitation de la commande, le phénomène de chattering.
2 Approche GAP-EKF pour l'apprentissage des réseaux
de neurones RBF
L'approche GAP-EKF proposée par (Huang et al., 2004) est une approche destinée
à l'apprentissage en ligne des réseaux RBF, où des échantillons d'apprentissage (xi, yi)
,i = 1, 2, . . . ,m, sont présentés un par un à l'entrée du réseau RBF de N neurones cachés.
xi est un vecteur d'entrées de taille Nx et le vecteur de sortie yi est de taille Ny. La sortie
du réseau pour l'entrée xi est donnée par l'équation (5.1) :
yi =N∑j=1
akj exp[−‖xi − µj‖2 /2σ2
j
]+ ako. (5.1)
Les paramètres du réseau (poids, centres et largeurs des fonctions gaussiennes) sont dé�nis
par le vecteur w :
w = [a, µ, σ] =[a1 . . . aN∗Ny ;µ1...µN∗Nx ;σ1...σN
](5.2)
GAP-EKF est une approche basée sur l'allocation des ressources où le nombre des neu-
rones cachésN est égal à 0 au début et au besoin, ce nombre est incrémenté ou décrémenté.
Le processus d'apprentissage de GAP-EKF implique l'attribution de nouveaux neu-
rones cachés ainsi que l'adaptation des paramètres du réseau par un �ltre de Kalman
étendu (EKF).
Le déroulement de l'algorithme est résumé dans la Figure 5.1 (Huang et al., 2005).
117
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
2.1 In�uence d'un neurone
La sortie du réseau est calculée à partir de la sommation des sorties des neurones de
la couche cachée. Ces neurones ne participent pas au même degrés dans le résultat. L'idée
est d'alléger le réseau en supprimant le neurone dont la participation est insigni�ante.
Pour cela, une nouvelle mesure de l'importance des neurones est introduite, l'in�uence
du neurone k peut être quanti�ée comme suit (Salem and Khel�, 2014d) :
Infk =
∥∥∥∥∥∥∥∥∥1.8σNxk ak
N∑j=1
(1.8σj)Nx
∥∥∥∥∥∥∥∥∥ . (5.3)
2.2 Critère de croissance (Growing Criterion)
Le réseau RBF commence seulement avec le biais et sans neurones cachés. Comme
les observations sont reçues au cours de l'application, certaines d'elles peuvent nécessiter
l'ajout d'un nouveau neurone (Growing). La décision d'ajouter un neurone caché pour
approximer une observation (xi, yi) est prise si le critère des équations (5.4) et (5.5) est
satisfait (Rong et al., 2006) :
‖xi − µir‖ > εg1. (5.4)
‖ei‖(1.8κ ‖xi − µir‖)Nx
N+1∑j=1
(1.8σj)Nx
> εg2. (5.5)
où ei est l'erreur entre la sortie du réseau yi et la sortie désirée yi. Elle est dé�nit par
l'équation (5.6) :
ei = yi − yi. (5.6)
Le vecteur µir contient les centres du neurone le plus proche de l'entrée courante xi. εg1, εg2sont des seuils à dé�nir pour chaque problème.
L'équation (5.4) véri�e si l'entrée courante xi est assez loin de tous les centres des neu-
rones existants de telle façon qu'ils ne peuvent pas réagir à cette entrée tandis que l'équa-
tion (5.5) véri�e si le nouveau neurone à ajouter N + 1 soit su�samment in�uent pour
être ajouté.
Les paramètres du nouveau neurone sont décrits dans l'équation (5.7) (Huang et al.,
2005) de telle sorte que les centres du nouveau neurone correspondent à l'entrée xi et les
poids reliant le neurone ajouté aux sorties sont données par le vecteur ei.aN+1 = ei
µN+1 = xi
σN+1 = κ ‖xi − µir‖(5.7)
118
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
où κ est un facteur qui détermine le degré de chevauchement des neurones cachés dans
l'espace d'entrée (Huang et al., 2005).
Quand une observation (xi; yi) ne véri�e pas les critères de l'ajout, aucun neurone caché
n'est ajouté, et les paramètres ai, σi et µi du réseau sont ajustés en utilisant l'algorithme
EKF.
Initialiser les paramètres du GAP-EKF N = 0
Entrer (xi, yi)
Calculer yi
Calculer l'in�uence Infk
Critère d'ajout ?
Calculer les paramètres
du nouveau neurone
N ← N + 1
Ajuster les para-
mètres du neurone le
plus proche par EKF
Critère de sup-
pression ?
Supprimer neurone
N ← N − 1
Recalculer yi
Autres données ?
Fin
Oui Non
Oui
Non
Non
Oui
Figure 5.1: Organigramme de l'algorithme GAP-EKF.
119
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
2.3 Ajustement des paramètres du réseau par l'algorithme EKF
Si les critères dans l'équation (5.4) et équation (5.5) ne sont pas véri�és, l'algorithme
GAP-EKF procède à la modi�cation des paramètres du neurone le plus proche wri de
l'entrée actuelle xi par un �ltre de Kalman étendu (EKF) (Li et al., 2000) :
wri = wri−1 +Kiei. (5.8)
Le vecteur wri contient les poids, centres et la largeur du neurone le plus proche comme
le montre l'équation (5.9). (Huang et al., 2005) :
wr = [ar, µr, σr] . (5.9)
Ki est la matrice des gains de Kalman calculée pour chaque entrée/ sortie :
Ki = Pi−1Bi[Ri +BTi Pi−1Bi]
−1. (5.10)
Bi = ∇wy est la matrice du gradient pour la fonction reliant les entrées aux sorties y. Ri
est la variance du bruit des mesures. Pi est la matrice de covariance de l'erreur dé�nit
dans l'équation (5.11) (Huang et al., 2005) :
Pi = [Iz∗z −KiBTi Bi]Pi−1 + q0Iz∗z. (5.11)
q0 est un scalaire pour déterminer le pas dans la direction de la matrice du gradient. Si le
nombre des paramètres à ajuster est z alors Pi est une matrice symétrique dé�nie positive
de dimension z × z.Quand un nouveau neurone est ajouté, la matrice Pi est modi�ée par l'équation (5.12)
(Huang et al., 2005) :
Pi =
(Pi−1 0
0 q0Ig∗g
). (5.12)
I est la matrice d'identité.
les nouvelles lignes et colonnes sont initialisées par q0(une estimation initiale de l'in-
certitude). g = Nx + Ny + 1 est le nombre des paramètres introduits avec le nouveau
neurone (Salem and Khel�, 2014d).
2.4 Critère d'élagage (Pruning Criterion)
A chaque présentation de couple de données, l'algorithme procède à l'élagage du réseau.
Si l'in�uence du neurone k donnée par l'équation (5.13) est inférieure au seuil d'élagage
εp, ce neurone est insigni�ant et va être supprimé et le nombre des neurones du réseau
120
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
devient N − 1 (Zhang, 2005).
‖aj‖(1.8σj)
Nx
N∑j=1
(1.8σj)Nx
< εp. (5.13)
3 Approche GAP-EKF-Floue pour la commande sli-
ding mode des systèmes non linéaires
Dans cette section, une architecture fondée sur l'intelligence computationelle est pro-
posée pour la commande sliding mode des systèmes non linéaires. Cette architecture est
basée sur l'utilisation des réseaux de neurones RBF (avec apprentissage en ligne par
GAP-EKF) dans l'approximation des paramètres du système commandé dans la com-
mande équivalente et de réduire l'e�et du chattering en calculant le gain K à fur et à
mesure pour la commande corrective en utilisant un contrôleur �ou (Salem and Khel�,
2014d).
Le schéma global de cette approche est donné dans la Figure 5.2
yd(t) Commande
équivalente
e(t) ∑RBF
GAP-EKF
s = e+ λe
ss
ue(t)+
uc(t)
+
Système
x(t)f(x), g(x)
u(t) y(t)
−
Figure 5.2: Approche GAP-EKF-Floue dans la commande sliding mode.
3.1 Commande Équivalente RBF-GAP-EKF
Les systèmes non linéaires sont souvent sujets aux variations des paramètres et incer-
titudes dans leur modèle ce qui in�ue sur les performances de la commande sliding mode
(Salem and Khel�, 2014d).
Un réseau de neurone RBF est utilisé pour remédier à ce problème en estimant en ligne
les paramètres du modèle et réagir en temps réel aux changements dûs à l'environnement
(frottement, bruit, ...).
Le réseau proposé a comme entrée le vecteur d'état x et deux sorties, les deux fonctions
non linéaires du système : f(x) et g(x).
121
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
La sortie du réseau est donnée par l'équation (5.14)
f(x) = a1TΦ(x)
g(x) = a2TΦ(x). (5.14)
où Φ(x) est le vecteur des sorties des neurones cachés, a1 et a2 sont les vecteurs corres-
pondants aux deux sorties (Salem and Khel�, 2014d).
La commande équivalente de l'équation (1.31) devient :
ue(t) =1
g(x)
[−f(x) + xd − λx+ λxd
](5.15)
L'apprentissage par l'algorithme GAP-EKF et l'exploitation du réseau RBF sont est réa-
lisé en ligne pendant la commande du système non linéaire (Salem and Khel�, 2011).
3.2 Commande Corrective �oue
Le rôle de la partie corrective de la commande sliding mode est de garder le système
sur la surface de glissement s en utilisant un gain K, cette commande est donnée par
l'équation (5.16) (Salem and Khel�, 2014d).
uc(t) = −Ksign(s) (5.16)
Pour garder le système sur la surface, il faut choisir des valeurs deK su�samment grandes
mais dans le même temps, ces grandes valeurs causeront des oscillations à hautes fré-
quences sur les deux cotés de la surface de glissement. Ce phénomène de chattering peut
endommager le système.
Au lieu de �xer une valeur constante pour K au début de la procédure de commande, nous
proposons d'utiliser un contrôleur �ou pour calculer ce gain. L'avantage de l'utilisation
d'un contrôleur �ou est que le gain commence avec une valeur élevée lorsque le système
est loin de la surface, cette valeur s'adaptera en fonction de la distance entre le système
et la surface (Salem and Khel�, 2014d).
3.2.1 Entrées du contrôleur �ou
Les variables d'entrée du contrôleur sont la surface s et sa dérivée s.
Les variables linguistiques de l'entrée s sont (Salem and Khel�, 2014d) :
� NS : Negative Small
� ZE : Zero
� PS : Positive Small
122
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
Les variables linguistiques de l'entrée s sont (Salem and Khel�, 2014d) :
� N : Negative
� Z : Zero
� P : Positive
Les fonctions d'appartenance des variables d'entrée s et s sont représentées dans la Fi-
gure 5.3 et la Figure 5.4.
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
0
0.2
0.4
0.6
0.8
1 ZENS PS
s
Degrésd'appartenance
Figure 5.3: Fonctions d'appartenance de la variable d'entrée s
−5 −4 −3 −2 −1 0 1 2 3 4 5
0
0.2
0.4
0.6
0.8
1 N Z P
s
Degrésd'appartenance
Figure 5.4: Fonctions d'appartenance de la variable d'entrée s
3.2.2 Sortie du contrôleur �ou
Le contrôleur �ou est de type Mamdani avec une seule sortie, le gain K. Ses variables
linguistiques sont :
� KS : K Small
� KM : K Moyen
123
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
� KB : K Big
La fonction d'appartenance de K est représentée dans la Figure 5.5.
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
0.2
0.4
0.6
0.8
1 KS KM KB
K
Degrésd'appartenance
Figure 5.5: Fonctions d'appartenance de la variable de sortie K
3.2.3 Système d'inférence
Les règles utilisées pour le calcul du gain sont représentées dans la Table 5.1 et une
représentation graphique des surfaces occupées est illustrée dans la Figure 5.6 (Salem and
Khel�, 2014d).
Table 5.1: Règles du contrôleur �ou
@@@
@@s
sNS ZE PS
N KM KM KS
Z KM KS KM
P KB KM KB
124
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
−1 −0.8−0.6−0.4−0.2 0 0.2 0.4 0.6 0.8 1
−4−2
02
4
2
4
ss
K
Figure 5.6: Surface de la sortie du contrôleur �ou K
4 Résultats des simulations
4.1 Application au pendule inversé
L'approche proposée a été utilisée pour la commande sliding mode du pendule inversé
simple donné en Annexe, Section 2.
La commande sliding mode pour un pendule inversé est donnée par l'équation (5.17) (Sa-
lem and Khel�, 2014d).
ue =1
g(θ, θ)
[−f(θ, θ) + θd − λθ + λθd
]−Ksign(s). (5.17)
L'objectif est de poursuivre la trajectoire sinusoïdale donnée en équation (5.18) (Salem
and Khel�, 2014d).
θd = 0.2sin(π
2t) (5.18)
θd et θd sont les vitesses et accélérations désirées. L'équation (5.19) représente les per-
turbations externes additionnées au système pour tester la robustesse de la commande
utilisée. Nous avons aussi simuler une variation de la masse du pendule en ajoutant une
quantité ∆m = 0.01Kg au milieu de chaque seconde (Salem and Khel�, 2014d).
d(t) = 10−3sin(t) (5.19)
Un réseau RBF avec un apprentissage GAP-EKF a été utilisé pour calculer les fonctions
f(θ, θ) et g(θ, θ), les estimations des fonctions f(θ, θ) et g(θ, θ). Dans le même temps, le
gain K est calculé par un contrôleur �ou.
La commande du pendule se déroule pendant 10s et à chaque pas d'échantillonnage
du simulateur, l'erreur entre la sortie désirée et réelle est calculée.
Pour éviter des calculs inutiles, l'algorithme GAP-EKF n'est exécuté que si cette erreur
125
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
dépasse un seuil acceptable �xé à l'avance ε1 = 0.001 (Salem and Khel�, 2014d).
Les paramètres de la commande sliding mode par l'approche GAP-RBF-Floue sont
présentés dans la Table 5.2 (Salem and Khel�, 2014d).
Table 5.2: Paramètres de l'algorithme d'apprentissage GAP-EKF
Paramétrer Valeur
Entrées θ, θ
Sorties f(θ, θ) et g(θ, θ)
Seuil d'ajout εg1 1.0e− 5
Seuil d'ajout εg2 1.0e− 5
Facteur de chevauchement κ 15
Seuil de suppression εp 1.0e− 5
q0 1.5
L'allure de la trajectoire désirée ainsi que la position réelle du pendule sont montrées
dans la Figure 5.7 et l'erreur de poursuite est dans la Figure 5.8.
L'erreur obtenue est très acceptable et le pendule converge rapidement vers la trajectoire
désirée avec un temps de réponse inférieur à 0.2s malgré l'existence d'un bruit externe et
une altération des paramètres du modèle.
Ces résultats sont obtenus à cause de la puissance de l'algorithme d'apprentissage en ligne
GAP-EKF d'où l'estimation des fonctions f(θ, θ) et g(θ, θ) avec une erreur à l'ordre de
1e− 03 et 1e− 06 respectivement (cf. Figure 5.9 et Figure 5.10).
Les pics remarqués chaque deux secondes sur les deux �gures montrent l'adaptation
de l'algorithme au changements introduits.
L'évolution du nombre des neurones du réseau RBF durant la procédure de la com-
mande est illustrée dans la Figure 5.11. Dans la �gure, l'algorithme commence avec zéro
neurones. L'algorithme a ajouté un nouveau neurone à 0.2s et un autre à 0.4s. Après le
pas suivant, le critère d'élagage est véri�é et le neurone le moins signi�ant est supprimé.
Les entrées suivantes ont nécessité l'ajout d'un nouveau neurone et le réseau continue
de fonctionner avec 2 neurones seulement en modi�ant les paramètres avec le �ltre de
Kalman jusqu'à 3.4s où le critère d'ajout a été véri�é et un autre neurone a été ajouté.
A la �n du procédure de la commande, le réseau a 13 neurones.
Le signal de commande agissant sur le chariot est représenté dans la Figure 5.12. Nous
pouvons remarquer clairement l'absence des oscillations à hautes fréquences (Chattering)
contrairement aux résultats du chapitre 4. Ceci est dû au contrôleur �ou dont la sortie est
représentée sur la Figure 5.13. Le gain commence avec une valeur de K = 5 et diminue
au cours de la procédure de commande pour suivre une forme sinusoïdale pour satisfaire
la trajectoire désirée.
126
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
0 1 2 3 4 5 6 7 8 9 10−0.3
−0.2
−0.1
0
0.1
0.2
0.3
0.4
Temps(s)
Pos
ition
ang
ulai
re (R
ad)
Position désirée
Position réelle
Figure 5.7: Positions désirée et réelle du pendule inversé par GAP-EKF-Floue
0 1 2 3 4 5 6 7 8 9 10
0
5 · 10−2
0.1
Temps(s)
Erreurangulaire(R
ad)
Figure 5.8: Erreur de poursuite de la position angulaire par GAP-EKF-Floue
0 1 2 3 4 5 6 7 8 9 10
−2
−1
0
1·10−3
Temps(s)
Erreurd'estimationf(x)
Figure 5.9: Erreur d'estimation de la fonction f(θ, θ) par GAP-EKF-Floue
127
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
0 1 2 3 4 5 6 7 8 9 10−8
−6
−4
−2
0
2·10−6
Temps(s)
Erreurd'estimationde
g(x)
Figure 5.10: Erreur d'estimation de la fonction g(θ, θ) par GAP-EKF-Floue
0 1 2 3 4 5 6 7 8 9 100
5
10
Temps(s)
Nom
brede
neurones
Figure 5.11: Évolution du nombre des neurones du réseau RBF
0 1 2 3 4 5 6 7 8 9 10−60
−40
−20
0
20
Temps(s)
Signaalde
commande
Figure 5.12: Signal de commande pour le pendule inversé par GAP-EKF-Floue
128
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
0 1 2 3 4 5 6 7 8 9 10
0
1
2
3
4
Temps(s)
valeur
dugain
�ouK
Figure 5.13: Valeurs du gains K, pendule inversé avec GAP-EKF-Floue
4.2 Application au robot manipulateur SCARA
Une deuxième application de l'approche proposée GAP-EKF-Floue est dans la com-
mande d'un robot manipulateur SCARA de trois degrés de liberté dont le modèle est
donné en Équation (5.20) (Ak and Cansever, 2006b) :
M(q)q + C(q, q)q +G(q) + F (q) = Γ. (5.20)
où M(q), C(q, q) sont les matrices d'inertie et des Forces de Coriolis et Centrifuges res-
pectivement. G(q) est le vecteur de gravité , F (q) est le vecteur des frottement et Γ est le
vecteur des couples agissants sur les articulations. q, q et q sont les vecteurs des positions,
vitesses et accélérations angulaires. Les valeurs de ces matrices pour le robot SCARA sont
présentés en Annexe.
La commande sliding mode d'un robot manipulateur est donnée par l'équation (5.21)
(Slotine and Li, 1991) :
Γ = Γeq + Γcc. (5.21)
où la commande équivalente Γeq est donnée par :
Γeq = M(q)qr + C(q, q)qr + G(q) + F (q). (5.22)
où :
qr = qd − λe, qr = qd − λe. (5.23)
avec qd, la trajectoire à suivre est représentée dans l'équation (5.24) :
qd = 1 + sin(πt). (5.24)
129
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
et la surface de glissement est dé�nit par l'équation (5.25) :
s = e+ λe. (5.25)
La partie corrective est sous la forme :
Γcc = −Ksign(s). (5.26)
M, C, G, F sont des estimations deM,C,G et F respectivement (Slotine and Li, 1991).
K = diag [K1, K2 . . . Kn] est une matrice diagonale dé�nie positive.
Nous avons appliqué l'approche GAP-RBF-Floue pour la commande sliding mode du ro-
bot manipulateur donné en équation (5.20), pour cela, nous avons utilisé un réseau RBF
pour estimer la matrice M , un autre pour estimer la matrice C et un troisième pour le
vecteur de frottement F . Les paramètres du vecteur de gravité G sont constantes (cf.
Équation (A.8).
Pour tester la robustesse de la commande, le frottement de l'équation (A.10) a été
considéré ainsi qu'une incertitude dans la masse de la deuxième articulation m2 avec
∆m2 = 0.001Kg.
Les paramètres de la commande sliding mode GAP-RBF-Floue sont présentés dans la
Table 5.3.
Les erreurs d'estimation des trois matrices sont illustrées dans la Figure 5.14, Fi-
gure 5.15 et Figure 5.16 tandis que Figure 5.17 et Figure 5.18 représentent les positions
des articulations et les erreurs de poursuite respectivement.
Les trois réseaux RBF ont approximé les trois composantes du modèle dynamique avec
exactitude produisant une erreur d'estimation inférieure à 1e − 6 et il est clair que les
articulations convergent vers la trajectoire désirée avec une erreur statique presque nulle
malgré les perturbations externes et les incertitudes dans le modèle.
Les couples agissants sur les trois articulations sont représentés dans la Figure 5.19 et la
sortie du contrôleur �ou est dans la Figure 5.20. Le phénomène du chattering est complè-
tement éliminé comme le montre la Figure 5.19 à cause de la bonne estimation du modèle
et l'in�uence du contrôleur �ou qui calcule à chaque instant le gain adéquat.
Pour montrer l'e�cacité de l'algorithme d'apprentissage, nous avons résumé les moyennes
des erreurs d'apprentissage pour les trois réseaux et ceci chaque deux secondes. Les résul-
tats sont présentés dans la Table 5.4.
Nous pouvons remarquer que les 3 réseaux vont apprendre le modèle à fur et à mesure
que le temps d'utilisation des réseaux passe. En e�et, pour chaque donnée en plus, l'ar-
chitecture des réseaux s'améliore et leurs performances augmentent.
130
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
Table 5.3: Paramètres de l'algorithme d'apprentissage GAP-EKF pour les 3 réseauxRBFM, RBFC et RBFF
Paramètre RBFM RBFC RBFF
Entrées q q, q q
Nombre des entrées 3 9 3
Sorties M C F
Nombre des sorties 3 3 3
Seuil d'ajout εg1 1.0e− 6 1.0e− 6 1.0e− 5
Seuil d'ajout εg2 1.0e− 5 1.0e− 5 1.0e− 5
Facteur de chevauchement κ 15 10 15
Seuil de suppression εp 1.0e− 5 1.0e− 5 1.0e− 5
q0 1.5 0.9 1.1
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−2
0
2
4
6
8·10−5
M(1,1)M(1,2)M(2,2)
Figure 5.14: Erreur d'estimation de la matrice M par GAP-EKF-Flou
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−1.5
−1
−0.5
0
0.5
1·10−6
C(1,1)C(1,2)C(2;2)
Figure 5.15: Erreur d'estimation de la matrice C par GAP-EKF-Flou
131
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−1
−0.5
0
0.5
1·10−13
F(1)F(2)F(3)
Figure 5.16: Erreur d'estimation du vecteur du frottement F par GAP-EKF-Flou
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
0.5
1
Temps(s)
Positions
(Rad)
ConsigneArticulation 1Articulation 2Articulation 3
Figure 5.17: Positions des 3 articulations par GAP-EKF-Floue
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
−1
−0.5
0
Temps(s)
Erreur(rad)
Articulation 1Articulation 2Articulation 3
Figure 5.18: Erreurs de poursuite des 3 articulations par GAP-EKF-Floue
5 Conclusion
Dans ce chapitre, nous avons présenté un algorithme d'apprentissage en ligne des
réseaux de neurones RBF pour l'approximation des fonctions du modèle d'un système
non linéaire.
132
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
0
200
400
600
Temps(s)
Sgnalde
commande
Articulation 1Articulation 2Articulation 3
Figure 5.19: Signaux de commande des 3 articulations par GAP-EKF-Floue
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5−600
−400
−200
0
Temps (s)
Gains
K
Articulation 1Articulation 2Articulation 3
Figure 5.20: Sorties du contrôleurs �ous (gains K) par GAP-EKF-Floue
Table 5.4: Erreurs d'estimation des 3 réseaux RBF par GAP-EKF.
Secondes Sans bruit Avec bruitRBFM RBFC RBFF RBFM RBFC RBFF
1-2 5.41e-6 4.53e-7 1.16e-16 2.62e-5 9.21e-6 3.88e-153-4 6.27e-8 4.45e-8 2.22e-17 3.54e-7 6.55e-8 3.29e-165-6 2.49e-8 7.92e-8 8.88e-17 4.02e-7 8.22e-8 1.24e-167-8 1.56e-8 3.33e-8 3.05e-17 8.23e-7 5.36e-8 5.86e-169-10 2.85e-8 9.74e-8 8.72e-17 5.14e-7 1.94e-8 2.11e-16
133
Chapitre 5. Apprentissage en ligne des réseaux de neurones RBF par l'approcheGAP-EKF
L'approche GAP-EKF est basée sur deux stratégies, Growing and pruning (GAP) pour
ajouter ou supprimer des neurones, et un �ltre de Kalman étendu (EKF) pour modi�er
les paramètres du réseau (poids, centres et largeurs).
L'algorithme en question commence avec un réseau vide (avec 0 neurones) et tente
de construire l'architecture du réseau à fur et à mesure que les couples entrées/sorties
seront présentées. Il procède soit en modi�ant les paramètres (poids, centres et largeur)
du neurone le plus proche de l'entrée présentée si celle-ci est assez proche. Sinon il ajoute
un nouveau neurone pour pouvoir réagir à la nouvelle entrée.
Après chaque présentation de couples, l'algorithme élague le réseau en supprimant le
neurone le moins signi�ant pour empêcher le réseau de s'accroitre exponentiellement et
ainsi réduire le temps de calcul.
L'algorithme d'apprentissage a été utilisé dans une approche de commande sliding
mode à base de l'intelligence computationnelle (approche GAP-EKF-Flou) pour palier
aux limites de la commande sliding mode citées dans le Chapitre 1, section � 6.2.3, elle
est constituée de :
1- Un réseau de neurones RBF avec l'algorithme d'apprentissage GAP-EKF pour
estimer en ligne les paramètres du système non linéaire et ainsi annuler l'in�uence des
incertitudes et bruits externes.
2- Un contrôleur �ou pour calculer le gain de la commande corrective et l'adapter aux
circonstances de la commande ce qui élimine le chattering.
L'approche a été appliquée sur un pendule inversé et un robot manipulateur de type
SCARA en donnant des résultats acceptables même en présence des bruits et incertitudes.
Les résultats obtenus dans ce chapitre ont donné lieu à une communication et une
publication internationales, en l'occurrence :
• CCCA11 pour la conception de l'approche sliding mode GAP-EKF basée sur les
réseaux RBF avec un apprentissage en ligne avec l'algorithme GAP-EKF et son
application sur un pendule inversé.
• IJISA14a pour l'amélioration de l'approche précédente en ajoutant un contrôleur
�ou en parallèle et en augmentant le degré de complexité du système utilisé (robot
manipulateur (SCARA).
134
Conclusion générale
La commande sliding mode est une commande robuste largement utilisée dans l'in-
dustrie pour commander les systèmes non linéaires. Ces systèmes présentent souvent des
incertitudes dans leurs modèles.
La commande sliding mode est composée de deux parties, la commande équivalente
utilise le modèle dynamique du système pour le ramener vers une surface de glissement,
et la commande corrective (commutative) pour garder le système sur la surface.
La commande sliding mode sou�re de deux limitations majeures, la dépendance du
modèle dynamique et le phénomène des oscillations à hautes fréquences (chattering).
Les techniques de l'intelligence computationnelle constituent des solutions possibles à
ces limites. Ces techniques comportent les réseaux de neurones, la logique �oue et les
algorithmes évolutionnaires parmi d'autres.
La présente thèse a été dédiée à la résolution des limites de la commande sliding mode
par l'application des réseaux de neurones à fonctions à bases radiales (RBF) et la logique
�oue.
En e�et, les réseaux de neurones RBF par leurs qualités d'adaptation et d'approxi-
mation sont un outil performant pour estimer les paramètres du modèle du système com-
mandé. Ces performances dépendent essentiellement de la qualité de l'algorithme d'ap-
prentissage utilisé.
En premier lieu, nous avons essayé de développer un algorithme d'apprentissage hors
ligne en utilisant les algorithmes évolutionnaires.
L'espace de recherche des paramètres d'un réseau de neurones RBF (poids, centres et
largeurs) est vaste et limité seulement par la capacité de calcul, ceci conduit forcement
l'algorithme d'apprentissage à être piégé dans un ou plusieurs minima locaux. Ayant cela
comme problématique secondaire, nous avons amélioré deux algorithmes d'optimisation
a�n d'accroître leurs e�et de diversi�cation : la colonie d'abeilles arti�cielles (ABC) et
l'optimisation basée sur la biogéographie (BBO). L'idée était de les hybrider avec le modèle
prédateur et proies amélioré.
Les algorithmes obtenus (PMBBO et ABC-PP) ont été validés par une analyse statis-
tique via des tests non-paramétriques et comparés pour choisir le meilleur entre eux a�n
de s'en servir pour l'apprentissage des réseaux de neurones RBF.
Du fait que l'algorithme ABC-PP est sorti du lot en étant classé premier dans l'analyse
135
Conclusion générale
statistique, il a été appliqué pour l'apprentissage hors ligne d'un réseau de neurones pour
estimer les paramètres d'un pendule inversé dans le cadre d'une commande sliding mode.
Les résultats obtenus sont satisfaisants mais lorsque la commande sliding mode utili-
sant le réseau RBF a été soumise à un test de robustesse en simulant des perturbations
externes et une altération du modèle, les résultats de la commande ont rapidement dété-
riorés.
La deuxième solution est d'avoir recours à un algorithme d'apprentissage en ligne,
dans ce contexte, nous avons présenté l'algorithme GAP-EKF qui est un algorithme en
ligne basé sur deux stratégies, une stratégie GAP (Growing And Pruning) et un �ltre de
Kalman étendu. Il procède à l'apprentissage d'un réseau en commençant avec 0 neurones
et il ne nécessite pas la disponibilité de la totalité de la base d'apprentissage. A chaque
couple entrée/sortie présenté, l'algorithme décide d'ajouter un nouveau neurone selon un
critère de distance, si ce critère n'est pas véri�é, les paramètres du réseau sont modi�és
par un �ltre de Kalman étendu.
L'algorithme GAP-EKF a été utilisé pour concevoir une approche de commande sliding
mode basée sur les techniques de l'intelligence computationnelle. L'approche GAP-EKF-
Floue est composée de deux parties :
1)- Un réseau de neurones RBF avec apprentissage en ligne (GAP-EKF) pour calculer
la commande équivalente en estimant en ligne les paramètres du modèle et compenser les
incertitudes et les variations du modèle.
2)- Un contrôleur �ou pour calculer la commande corrective a�n d'éliminer le phéno-
mène de chattering, ce contrôleur a comme entrées la surface et sa dérivée et sa sortie est
la valeur du gain. Nous avons étudié la robustesse de la commande sliding mode obtenue
sur un pendule inversé et ensuite sur un robot manipulateur de type SCARA. Les résul-
tats de simulation ont montré un comportement satisfaisant pour les deux systèmes en
présence de bruits et incertitudes.
Cette thèse a présenté trois nouveaux algorithmes, deux algorithmes d'optimisation et
un algorithme d'apprentissage en ligne.
• Les algorithmes PMBBO et ABC-PP sont de puissants algorithmes d'optimisation,
surtout ABC-PP qui a prouvé ses performances à travers des tests statistiques non
paramétriques et bien qu'il ait montré des limites dans notre problème (Application
des réseaux RBF pour la commande sliding mode des systèmes non linéaire), il a
donné de bons résultats dans d'autres problèmes d'optimisation et ses limites sont
surtout dues aux propriétés des systèmes non linéaires et non à l'algorithme lui-
même.
L'algorithme ABC-PP pourrait bien être utilisé pour l'optimisation du contrôleur
�ou à savoir, le nombre et les paramètres des fonctions d'appartenance des variables
�oues.
• L'algorithme GAP-EKF qui est un algorithme d'apprentissage en ligne des réseaux
136
Conclusion générale
de neurones RBF, cet algorithme est caractérisé par :
1. La notion d'in�uence d'un neurone a un rôle important dans la sélection du
neurone à ajouter ou supprimer, elle permet de réduire la complexité de calcul
pour le rendre plus simple.
2. Quand aucun neurone caché n'est ajouté, seuls les paramètres du plus proche
neurone doivent être ajustés, ce qui réduit le temps de calcul global et rend
l'apprentissage plus rapide, Cette dernière à un grand avantage dans les appli-
cations où un grand nombre de neurones cachés est nécessaire.
3. Le réseau RBF commence par un nombre de neurone nul, ceci nous évite de
résoudre un autre problème dans l'apprentissage des réseaux de neurones RBF
où le nombre des neurones cachés doit être déterminé empiriquement ce qui
in�ue sur les performances de n'importe quel algorithme d'apprentissage.
4. L'idée d'ajouter et supprimer des neurones selon le besoin réduit vraisemblable-
ment le temps de calcul surtout dans la phase de modi�cation des paramètres
par le �ltre de Kalman étendu (EKF) où des matrices de grandes dimensions
sont manipulées.
L'algorithme GAP-EKF est utile pour les applications nécessitant des estimations
en temps réel, il su�t juste de �xer ses paramètres.
Nous pouvons résumer les résultats obtenus dans cette thèse par les productions sui-
vantes :
137
Conclusion générale
Figure 5.21: Résumé des contributions
138
Bibliographie
Abraham, A. (2001). Neuro fuzzy systems : State-of-the-art modeling techniques. Master's
thesis, School of Computing & Information Technology, University Monash, Australia.
Ak, A. G. and Cansever, G. (2006a). Adaptive neural network based fuzzy sliding mode
control of robot manipulator. In IEEE Conference on Cybernetics and Intelligent Sys-
tems, volume 144, pages 1�6, Bangkok.
Ak, A. G. and Cansever, G. (2006b). Fuzzy sliding mode controlller with RBF networks
for robotic manipulator trajectory tracking. Lecture notes in control and information
sciences (Intelligent Control and Automation ), 144 :527�532.
Belew, R., McInerney, J., and Schraudolph, N. (1991). Evolving networks : Using the ge-
netic algorithm with connectionist learning. In Proc. Second Arti�cial Life Conference,
pages 511�547, New York.
Berbaoui, B., Benachaiba, C., Rahli, M., and Tedjini, H. (2011). An e�cient algorithm
to tuning PI-controller parameters for shunt active power �lter using ant colony opti-
mization. PRZEGLAD ELEKTROTECHNICZNY (Electrical Review), 6 :140�145.
Beyhan, S. and Alci, M. (2009). A new rbf network based sliding-mode control of nonli-
near systems. In International Multiconference on Computer Science and Information
Technology, pages 11�16.
Cantú-Paz, E. and Kamath, C. (2005). An empirical comparison of combinations of evolu-
tionary algorithms and neural networks for classi�cation problems. IEEE Transactions
on Systems Man and Cybernetics Part B (Cybernetics), 35(5) :915�927.
Cara�ni, F., Neri, F., Cheng, J., Zhang, G., Picinali, L., Iacca, G., and Mininno, E.
(2013). Super-�t multicriteria adaptive di�erential evolution. In IEEE Congress on
Evolutionary Computation, CEC 2013, pages 1678�1685, Cancun, Mexico.
Castro, L. D. and von Zuben, F. (2001). An immunological approach to initialize centers
of radial basis function neural networks. In Proceedings of Brazilian Conference on
Neural Networks, pages 79�84, Rio de Janeiro, Brazil.
139
Bibliographie
Caudell, T. P. and Dolan, C. P. (1989). Parametric connectivity : Training of constrained
networks using genetic algorithms. In Proceedings of the 3rd International Conference
on Genetic Algorithms, pages 370�374.
Chen, C. S. and Chen, W. L. (1998). Robust adaptive sliding-mode control using fuzzy
modeling for an inverted-pendulum system. IEEE Transaction on Industrial Electro-
nics, 45 :297�306.
Chen, H. and Wo, S. (2013). Rbf neural network of sliding mode control for time-varying
2-dof parallel manipulator system. Mathematical Problems in Engineering, 2013 :1�10.
Choi, S. B. and Kim, M. S. (1997). New discrete time fuzzy sliding mode control with
application to smart structures. Journal of Guidance Control and Dynamics, 20(5) :857�
864.
Conover, W. (1999). Practical nonparametric statistics. John Wiley & Sons, New York.
Crepinsek, M., Liu, S.-H., and Mernik, M. (2013). Exploration and exploitation in evolu-
tionary algorithms : A survey. ACM Computing Surveys, 45(3) :35 :1�33.
Cybenko, G. (1989). Approximation by superposition of sigmoidale functions. Mathema-
tics of of Control Signal and Systems, 2 :303�314.
da Mota, J. F., Siqueira, P., de Souza, L., and Vitor, A. (2012). Training radial basis
function networks by genetic algorithms. In Proceedings of the 4th International Confe-
rence on Agents and Arti�cial Intelligence (ICAART 2012), pages 373�379, Vilamoura,
Algarve, Portugal.
Derrac, J., Garcia, S., Molina, D., and Herrera, F. (2011). A practical tutorial on the
use of nonparametric statistical tests as a methodology for comparing evolutionary and
swarm intelligence algorithms. Swarm and Evolutionary Computation, 1 :3�18.
Digalakis, J. G. and Margarits, K. G. (2000). On benchmarking functions for genetic
algorithms. International Journal of Computer Mathematics, 00 :1�27.
Doksum, K. (1967). Robust procedures for some linear models with one observation per
cell. Annals of Mathematical Statistics, 38 :878�883.
Dunn, O. (1961). Multiple comparisons among means. Journal of the American Statistical
Association, 56 :52�64.
Eberhart, R., Shi, Y., and Kennedy, J. (2001). Swarm Intelligence. Morgan Kaufmann.
Elsayed, S. M. M., Sarker, R., and Essam, D. L. (2013). A genetic algorithm for solving
the CEC2013 competition problems on real-parameter optimization. In IEEE Congress
on Evolutionary Computation, CEC 2013, pages 356�360, Cancun, Mexico.
140
Bibliographie
Engelbrecht, A. (2003). Computational Intelligence : An Introduction. Wiley.
Erbatur, K., Kaynak, O., Sabanovic, A., and Rudas, I. (1996). Fuzzy adaptive sliding
mode control of a direct drive robot. Robotics and Autonomous Systems, 19(2) :215�
227.
Ertugrul, M. and Kaynak, O. (2000). Neuro sliding mode control of robotic manipulators.
Mechatronics, 10(1-2) :243�267.
Fateh, M., Ahmadi, S., and Khorashadizadeh, S. (2014). Adaptive rbf network control for
robot manipulators. Journal of AI and Data Mining, 2 :In print.
Fei, J. and Wang, Z. (2013). Adaptive neural sliding mode control of active power �lter.
Journal of Applied Mathematics, 2013 :1�8.
Finner, H. (1993). On a monotonicity problem in step-down multiple test procedures.
Journal of the American Statistical Association, 88 :920�923.
Friedman, M. (1937). The use of ranks to avoid the assumption of normality implicit in
the analysis of variance. Journal of the American Statistical Association, 32 :674�701.
Garcia, S., Fernández, A., Luengo, J., and Herrera, F. (2010). Advanced nonparametric
tests for multiple comparisons in the design of experiments in computational intelligence
and data mining : Experimental analysis of power. Information Sciences, 180 :2044�
2064.
Garcia, S., Molina, D., M.Lozano, and Herrera, F. (2009). A study on the use of non-
parametric tests for analyzing the evolutionary algorithms behaviour a case study on
the cec2005 special session on real parameter optimization. Journal of Heuristics, 15-
6 :617�644.
GirirajKumar, S., Jayaraj, D., and Kishan, A. (2010). PSO based tuning of a PID
controller for a high performance drilling machine. International Journal of Computer
Applications, 1(19) :12�18.
Gozde, H., Taplamacioglu, M. C., and Kocaarslan, I. (2010). Applications of arti�cial
bees colony algorithm in an automatic voltage regulator (AVR) system. International
Journal on Technical and Physical Problems of Engineering (IJTPE), 2(3) :88�92.
Ha, Q. P. (1996). Robust sliding mode controller with fuzzy tuning. Electron Letters,
32(17) :1626�1628.
Ha, Q. P. (1997). Sliding performance enhancement with fuzzy tuning. Electron Letters,
33(16) :1421�1423.
141
Bibliographie
Hagan, T. M., Demuth, H., and Beale, M. (1995). Neural network design. Ed PWS
publishing company.
Hancock, P. (1992). Genetic algorithms and permutation problems : A comparison of
recombination operators for neural net structure speci�cation. In Proceedings of the
Third International Workshop on Combinations Genetic Algorithms Neural Networks,
pages 108�122.
Haykin, S. (1999). Neural Networks : A Comprehensive Foundation. Upper Saddle River,
N.J. Prentice Hall, 2nd edition edition.
Hochberg, Y. (1988). A sharper bonferroni procedure for multiple tests of signi�cance.
Biometrika, 75 :800�803.
Hodges, J. and Lehmann, E. (1962). Ranks methods for combination of independent
experiments in analysis of variance. Annals of Mathematical Statistics, 33 :482�497.
Hoerl, A. (1962). Application of ridge analysis to regression problems. Chemical Engi-
neering Progress, 58 :54�59.
Holland, M. (1987). An improved sequentially rejective bonferroni test procedure. Bio-
metrics, 43 :417�423.
Holm, S. (1979). A simple sequentially rejective multiple test procedure. Scandinavian
Journal of Statistics, 6 :65�70.
Hommel, G. (1988). A stagewise rejective multiple test procedure based on a modi�ed
bonferroni test. Biometrika, 75 :383�386.
Hornik, K. (1991). Approximation capabilities of multilayer feedforward networks. Neural
Networks, 4 :251�257.
Hu, S. and Lu, M. (2012). Neural fuzzy sliding mode control for a robot manipulator.
In International Conference on Mechanical Engineering and Automation Advances in
Biomedical Engineering.
Huang, G., Saratchandran, P., and Sundararajan, N. (2004). An e�cient sequential lear-
ning algorithm for growing and pruning RBF (GAP-RBF) networks. IEEE Transac-
tion on systems , Man , and Cybernitics Part B : Cybercnitics, 34(6) :2284�2292.
Huang, G., Saratchandran, P., and Sundararajan, N. (2005). A generalized growing and
pruning RBF (GGAP-RBF) neural network for function approximation. IEEE tran-
saction on Neural Networks, 16(1) :57�67.
Hwang, G. C. and Lin, S. C. (1992). A stability approach to fuzzy control design Fuzzy
Sets Systems, 48(3) :279�287.
142
Bibliographie
Iman, R. L. and Davenport, J. M. (1980). Approximations of the critical region of the
friedman statistic. Communications in Statistics - Theory and Methods, 9(6) :871�595.
Jezernik, K., Rodic, M., Safaric, R., and Curk, B. (1997). Neural network sliding mode
robot control. Robotica, 15 :23�30.
Jiao, B. and Wang, L. (2010). Rbf neural network sliding mode control for variable-speed
adjustable-pitch system of wind turbine. In International Conference on Electrical and
Control Engineering,, pages 3998 � 4002, Wuhan, China.
Jog, P., Suh, J., and Gucht, G. (1991). Parallel genetic algorithms applied to the traveling
salesman problem. SIAM Journal on Optimization, 1(4) :515�529.
Johnson, M. A. and Moradi, M. H. (2005). PID Controllers :New Identi�cation and
Design Methods. Springer.
Kadirkamanathan, V. and Niranjan, M. (1993). A function estimation approach to se-
quential learning with neural networks. Neural Computation, 5 :954�975.
Karaboga, D. (2005). An idea based on honey bee swarm for numerical optimization.
Technical report tr06, Erciyes University, Engineering Faculty, Computer Engineering
Department.
Karaboga, D., Akay, B., and Ozturk, C. (2007). Arti�cial bee colony (ABC) optimization
algorithm for training feed-forward neural networks. Modeling Decisions for Arti�cial
Intelligence ( LNCS), 46(17) :318�329.
Karakasoglu, A. and Sundareshan, M. K. (1995). A recurrent neural networkbased adap-
tive variable structure model-following control of robotic manipulators. Automatica,
31(10) :1495�1507.
Kartalopoulos, S. V. (2004). Understanding Neural Networks and Fuzzy Logic : Basic
Concepts and Applications. IEEE Press - PHI.
Khalil, S. (2003). Inverted pendulum analysis, design and implementation. Technical
report, The Instrumentation and Control Lab at the Institute of Industrial Electronics
Engineering, Pakistan.
Kim, H. G. and Oh, S. Y. (1995). Locally activated neural networks and stable neu-
ral controller design for nonlinear dynamic systems. International Journal of Neural
Systems, 6(1) :91�106.
Kim, J. S. (2008). Auto tuning PID controller based on improved genetic algorithm for
reverse osmosis plant. In Proceedings of the World Academy of Science and Engineering.
143
Bibliographie
Kitano, H. (1990). Empirical studies on the speed of convergence of neural network
training using genetic algorithms. In Proceedings of the Eighth National Conference on
Arti�cial Intelligence, pages 789�795.
Klir, G. and Yuan, B. (1995). Fuzzy Sets and Fuzzy Logic Theory and Applications.
Prentice Hill PTR, Upper Saddle River, NJ, USA.
Kusiak, A. (2000). Computational Intelligence in Design and Manufacturing. Wiley-
Interscience.
Lahoty, P. and Parmar, G. (2013). A comparative study of tuning of PID controller using
evolutionary algorithms. International Journal of Emerging Technology and Advanced
Engineering, 3(1) :640�644.
Leung, F., Lam, Ling, S., and Tam, P. (2003). Tuning of the structure and parameters of
a neural network using an improved genetic algorithm. IEEE Transactions on Neural
Networks, 14(1) :79�88.
Levene, H. (1960). In contributions to probability and statistics. Essays in Honor of
Harold Hotelling, pages 278�292.
Lewis, F., Abdallah, C. T., and Dawson, D. M. (1993). Control of Robot Manipulators.
Macmillan Publishing Company, Inc, USA.
Li, J. (2008). A two-step rejection procedure for testing multiple hypotheses. Journal of
Statistical Planning and Inference, 138 :1521�1527.
Li, Y., Luo, Y., Zhao, Z., and Li, J. (2007). Internal model control of pm synchronous
motor based on rbf network optimized by genetic algorithm. In IEEE International
Conference on Control and Automation ICCA 2007., Guangzhou, China.
Li, Y., Ng, K. C., MurraySmith, D. J., Gray, G. J., and Sharman, K. C. (1996). Ge-
netic algorithm automated approach to the design of sliding mode control systems.
International Journal of Control, 63(4) :721�739.
Li, Y., Sundararajan, N., and Saratchandran, P. (2000). Analysis of minimal radial basis
function network algorithm for real-time identication of nonlinear dynamic systems. In
Control Theory and Applications, IEEE Proceedings, volume 147(4), pages 476�484.
Liang, J., Qu, B., Suganthan, P., and Diaz, G. H. (2013). Problem de�nitions and eva-
luation criteria for the CEC2013 special session and competition on real parameter
optimization, technical report. Technical Report 201212, Computational Intelligence
Laboratory, Zhengzhou University, Zhengzhou China.
144
Bibliographie
Liao, T. and Stutzle, T. (2013). Benchmark results for a simple hybrid algorithm on
the CEC2013 benchmark set for real-parameter optimization. In IEEE Congress on
Evolutionary Computation, CEC 2013, pages 1938�1944, Cancun, Mexico.
Lin, S. C. and Chen, Y. Y. (1997). Design of self-learning fuzzy sliding mode controllers
based on genetic algorithms. Fuzzy Sets Systems, 86(2) :139�153.
Liu, Y., Zheng, Q., Shi, Z., and Chen, J. (2004). Training radial basis function networks
with particle swarms. Advances in Neural Networks ISNN 2004 LNCS, 3171 :317�322.
Ma, H. and Simon, D. (2011). Blended biogeography-based optimization for constrained
optimization. Engineering Applications of Arti�cial Intelligence, 220 :517�525.
Ma, H., Simon, D., Fei, M., and Xie, Z. (2013). Variations of biogeography-based optimi-
zation and markov analysis. Information Sciences, 220 :492�506.
Macarthur, R. and Wilson, E. (1967). The Theory of Biogeography. Princeton, NJ :
Princeton Univ. Press.
Mahajan, R. and Kaur, G. (2013). Neural networks using genetic algorithms. International
Journal of Computer Applications, 77(14) :6�11.
Mamdani, E. H. and Assilian, S. (1975). An experiment in linguistic synthesis with a
fuzzy logic controller. International Journal of Man-machine Studies, 7 :1�13.
Marshall, S. J. and Harrison, R. F. (1991). Optimization and training of feedforward
neural networks by genetic algorithms. In Proc. Second Int. Conferencee on Arti�cal
Neural Networks Genetic Algorithms, pages 39�43.
McCulloch, W. S. and Pitts, W. (1943). A logical calculus of the ideas immanent in
nervous activity. Bulletin of Mathematical Biophysics, 5 :115�133.
Miller, B. L. and Goldberg, D. E. (1995). Genetic algorithms, tournament selection and
the e�ects of noise. Complex System, 9(3) :193�212.
Miller, G. F., Todd, P. M., and Hegde, S. U. (1989). Designing neural networks using
genetic algorithms. In Proc. Third Int. Conf. Genetic Algorithms, pages 379�384.
Mitchell, M. (1998). An Introduction to Genetic Algorithms. Prentice-Hall.
Moody, J. and Darken, C. (1995). Fast learning in network of locally-tuned processing
units. Neural Computation, 1 :606�623.
Nagaraj, B. and Vijayakumar, P. (2011). A comparative study of pid controller tuning
using ga, ep, pso and aco. Journal of Automation, Mobile Robotics & Intelligent Sys-
tems, 5(2) :42�48.
145
Bibliographie
Nandy, S., Sarkar, P. P., and Das, A. (2012). Traaining a feedforward neural network
with arti�cial bees colony based backpropagation method. International Journal of
Computer Science & Information Technology (IJCSIT), 4(4) :33�46.
Nepomuceno, F. V. . and Engelbrecht, A. (2013). A self-adaptive heterogeneous pso
for real-parameter optimization. In IEEE Congress on Evolutionary Computation,
CEC2013, pages 361�368, Cancun, Mexico.
Orr, M. J. L. (1995). Regularization in the selection of radial basis function centers.
Neural Computation, 7 :606�623.
Paschos, V. T. (2005). Optimisation combinatoire : concepts fondamentaux. Hermes
science publication.
Psaltis, D., Sideris, A., and Yamamura, A. A. (1988). A multilayered neural network
controller. IEEE Control Systems Magazine, 8 :17�21.
PugaGuzman, S., MorenoValenzuela, J., and Santibanez, V. (2014). Adaptive neural
network motion control of manipulators with experimental evaluations. Scienti�c World
Journal, 2014 :1�13.
Qasem, S. and Shamsuddin, S. (2009). Improving performance of radial basis function
network based with particle swarm optimization. In Evolutionary Computation. CEC09.
IEEE Congress on, pages 3149�3156.
Quade, D. (1979). Using weighted rankings in the analysis of complete blocks with additive
block e�ects. Journal of the American Statistical Association, 74 :680�683.
Radcli�e, N. J. (1990). Genetic neural networks on MIMD computers. PhD thesis, Uni-
versity of Edinburgh, Scotland.
Rajasekaran, S. and Pai, G. A. V. (2003). Neural Networks, Fuzzy Logic and Genetic
Algorithms : Synthesis and Applications. PHI.
Rom, D. (1990). A sequentially rejective test procedure based on a modi�ed bonferroni
inequality. Biometrika, 77 :663�665.
Rong, H., Sundararajan, N., Huang, G., and Saratchandran, P. (2006). Sequential adaptive
fuzzy inference system (SAFIS) for nonlinear system identi�cation and prediction. Fuzzy
Sets and Systems, 157-9 :1260�1275.
Rossomando, F. G., Soria, C., and Carelli, R. (2013). Sliding mode neuro adaptive control
in trajectory tracking for mobile robots. Journal of Intelligent & Robotic Systems, 74(3-
4) :931�944.
146
Bibliographie
Ruijun, D. (2009). Di�erential evolution versus particle swarm optimization for PID
controller design. In Fifth International Conference on Natural Computation, ICNC
'09.
Sabanovic, A., Jezernik, K., and Rodic, M. (1996). Neural network application in sliding
mode control systems. In IEEE International Workshop on Variable Structure Systems
(VSS 96), pages 143�147, Tokyo, Japan.
Salahshoor, K. and Jafari, M. R. (2007). On-line identi�cation of non-linear systems using
adaptiveRBF-based neural networks. International Journal of Information Science and
Management (IJISM), 5(2) :99�121.
Salem, M. and Khel�, M. F. (2011). RBF based sliding mode control for robot ma-
nipulators. In International Conference on Communications, Computing and Control
Applications (CCCA 2011), Hammamet, Tunisia.
Salem, M. and Khel�, M. F. (2012). Application of biogeography based optimization in
tuning a PID controller for nonlinear systems. In In : IEEE International Conference
on Complex Systems (ICCS), Agadir , Morocco.
Salem, M. and Khel�, M. F. (2013). Nonlinear inverted pendulum PID control by an
improved arti�cial bees colony-predator and prey approach. In 3rd International Confe-
rence on Systems and Control ICSC13, Algiers, Algeria.
Salem, M. and Khel�, M. F. (2014a). An enhanced swarm inteligence based training
algorithm for RBF neuraal networks in function approximation. In The 2nd World
Conference on Complex Systems, In press.
Salem, M. and Khel�, M. F. (2014b). Optimization of nonlinear controller with an enhan-
ced biogeography approach. An International Journal of Optimization and Control :
Theories & Applications, 4(2) :77�87.
Salem, M. and Khel�, M. F. (2014c). Predator and prey modi�ed biogeography based
optimization approach (PMBBO) in tuning a PID controller for nonlinear systems.
International Journal of Intelligent Systems and Applications(IJISA), 6(11) :12�20.
Salem, M. and Khel�, M. F. (2014d). Sequential adaptive RBF-fuzzy variable structure
control applied to robotics systems. International Journal of Intelligent Systems and
Applications, 6(10) :19�29.
Sayed, M. M., Saad, M. S., Emara, H. M., and El-Zahab, A. E. E. (2012). A novel method
for PID tuning using a modi�ed biogeography-based optimization algorithm. In 24th
Chinese Control and Decision Conference (CCDC), Taiyuan , China.
147
Bibliographie
Seeley, T. (1995). The wisdom of the hive. Harvard University Press, Cambridge.
Sha�ei, S. E. (2010). Sliding mode control of robot manipulators via intelligent approaches.
In Advances strategies for Robots manipulators, pages 135�172. Sciyo.
Shapiro, S. S. and Wilk, M. B. (1965). An analysis of variance test for normality (complete
samples). Biometrika, 52(3,4) :591�611.
Sheskin, D. (2006). Handbook of Parametric and Nonparametric Statistical Procedures.
Chapman & Hall CRC, 4th edition.
Shi, X., Zhao, H., and Chen, J. (2012). Advances in Computer Science and Information
Engineering, chapter Terminal Sliding Mode Control for STT Missile Based on RBF
Neural Network, pages 49�54. Springer Berlin Heidelberg.
Si, T., Hazra, S., and Jana, N. D. (2012). Arti�cial neural network training using dif-
ferential evolutionary algorithm for classi�cation. In Proceedings of the International
Conference on Information Systems Design and Intelligent Applications (INDIA 2012)
held in Visakhapatnam, India, January, volume 132 132, pages 769�778, Visakhapat-
nam, India.
Silva, M., dos S Coelho, L., and , R. . F. (2010). Biogeography-based optimization
approach based on predator-prey concepts applied to path planning of 3-dof robot
manipulator. In IEEE Conference Emerging Technologies and Factory Automation
(ETFA), pages 1�8, Cracow, Poland.
Simon, D. (2008). Biogeography-based optimization. IEEE Transactions on Evolutionary
Computation, 12(6) :702�713.
Skinner, A. and Broughton, J. Q. (1995). Neural networks in computational material
science : training algorithms. Modelling and Simulation in Material Science and En-
ginnering, 3 :371�390.
Slotine, J. J. E. and Li, W. (1991). Applied Nonlinear Control. Prentice-Hall.
Solihin, M. I., Tack, L., and Kean, M. L. (2011). Tuning of PID controller using particle
swarm optimization (PSO). In Proceeding of the International Conference on Advanced
Science, Engineering and Information Technology 2011, Bangi-Putrajaya, Malaysia.
Song, S., Zhang, X., and Tan, Z. (2014). Rbf neural network based sliding mode control
of a lower limb exoskeleton suit. Journal of Mechanical Engineering, 60(6) :437�446.
Soundarrajan, A., Sumathi, S., and Sundar, C. (2010). Ant colony optimization based
PID tuning for AVR in autonomous power generating systems. International Journal
of Recent Trends in Engineering and Technology, 3(4) :125�129.
148
Bibliographie
Sundareswaran, K. (2008). D.C. motor speed controller design through a colony of honey
bees. In TENCON (IEEE Region) conference, pages 1�6.
Tai, N. and Ahn, K. (2010). A rbf neural network sliding mode controller for sma actuator.
International Journal of Control, Automation, and Systems, 8(6) :1296�1305.
Takagi, T. and Sugeno, M. (1985). Fuzzy identi�cation of systems and its applications to
modeling and control. IEEE Trans. Systems, 15 :116�132.
Tereshko, V. (2000). Reaction-di�usion model of a honeybee colonys foraging behaviour.
Parallel Problem Solving from Nature PPSN VI (LNCS), 1917 :807�816.
Thierens, D., Suykens, J., Vandewalle, J., and Moor, B. D. (1991). Genetic weight opti-
mization of a feedforward neural network controller. In Proceedings of the Conference
on Neural Nets and Genetic Algorithms. 1991, pp. 658-663, Springer Verlag., pages
658�663.
Verhoeven, M. and Aarts, E. (1995). Parallel local search. Journal of Heuristics, 1(1) :43�
65.
Wang, X. (1994). Adaptive Fuzzy Systems and Control. NJ :Prentice-Hall Englewood
Cli�s.
Widrow, B. and Lehr, M. A. (1990). 30 years of adaptive neural networks : Perceptrons,
madeline and backpropagation. Proceedings of the IEEE, 78(9) :1415�1442.
Wolpert, H. D. and Macready, W. (1997). No free lunch theorems for optimization. IEEE
Transactions on evolutionary computation, 1(1) :67�82.
Xia, G. and Wu, H. (2013). Advances in Swarm Intelligence, chapter Network-Based
Neural Adaptive Sliding Mode Controller for the Ship Steering Problem, pages 497�
505. Springer Berlin Heidelberg.
Yeremia, H., Yuwono, N. A., Raymond, P., and W.Budiharto (2013). Genetic algorithms
and neural networks for optical character recognition. Journal of Computer Science, 9
(11) : :1435�1442.
Yin, F., Wang, J., and Guo, C. (2004). Design of PID controllers using genetic algo-
rithms approach for low damping slow response plants. Advances in Neural Networks,
3174 :219�220.
Yoo, B. and Ham, W. (1998). Adaptive fuzzy sliding mode control of nonlinear system.
IEEE Transactions on Fuzzy Systems, 6 :315�321.
149
Bibliographie
Youxin, L. and Xiaoyi, C. (2010). Tuning PID control parameters on hydraulic servo
control system based on di�erential evolution algorithm. In 2nd International Confe-
rence on Advanced Computer Control (ICACC).
Yu, B. and He, X. (2006). Training radial basis function networks with di�erential evolu-
tion. In Proceedings of IEEE International Conference on Granular Computing, pages
369�372, Atlanta, GA, USA.
Yu, X. H., Man, Z. H., and Wu., B. L. (1998). Design of fuzzy sliding mode control
systems. Fuzzy Sets Systems, 95(3) :295�306.
Zadeh, L. (1965). Information and control. Fuzzy Sets, 8 :338�353.
Zain, B. A. M., Tokhi, M., and Toha, S. (2009). PID based control of a single-link �exible
manipulator in vertical motion with genetic optimisation. In Third UKSim European
Symposium on Computer Modeling and Simulation., Athens, Greece.
Zar, J. (2009). Biostatistical Analysis, volume 3. Prentice Hall.
Zhang, R. (2005). E�cient Sequential and Batch Learning Arti�cial Neural Network
Methods for Classi�cation Problems. PhD thesis, Nanyang Technological University.
Zhang, Y., Li, T., and Yi, J. (2012). Adaptive neural network sliding mode control
based on particle swarm optimization for rotary steering drilling stabilized platform.
International Journal of Advancements in Computing Technology(IJACT), 4(19) :107�
114.
150
Annexes
151
Annexe A
Systèmes non linéaires utilisés
1 Système masse ressort amortisseur
Le système masse ressort amortisseur (cf. Figure A.1) est un système non linéaire
décrit par l'équation di�érentielle de deuxième ordre (A.1).
mk
b
x(t)
u(t)
Figure A.1: Système masse ressort amortisseur.
x =b
mx+
k
mx+
1
mx3 − 1
mu. (A.1)
où m est la masse, u(t) est la force exercé, k est la constante de rigidité du ressort et
b : le coe�cient d'amortisseur. avec m = 1kg, b = 10Ns/m,k = 20N/m.
2 Pendule inversé
Le pendule inversé est un système formé d'une tige montée en inverse sur un chariot
mobile ; Il est un système non linéaire de second ordre dont le modèle est donnée par
l'équation (A.2) avec x(t) = [θ, θ] vecteur d'état, d(t) est le vecteur des perturbations
externes et u(t) le vecteur de commande (Khalil, 2003).
Le système pendule inversé à modéliser est représenté par la Figure A.2.
152
Annexe A. Systèmes non linéaires utilisés
mc
θ
u(t)
Figure A.2: Pendule inversé simple.
En exerçant une force horizontale u(t) sur le chariot, celui-ci se déplace en translation
de x mètres et provoque une déviation du pendule de θ radians.
θ = f(x) + g(x)u(t) + d(t). (A.2)
où :
θ =gsin θ −mlθ2cos θsin θ /(mc +m)
l(4/3−mcos2θ/(mc +m))
+cos x1 /(mc +m)
l(4/3−mcos2θ/(mc +m))u(t) + d(t). (A.3)
θ et θ sont la positions et vitesse angulaires de la tige respectivement, g :la gravité, m la
masse de la tige et mc la masse du chariot ; l la moitié de la longueur de la tige et et d(t)
représente le bruit (Khalil, 2003) avec m = 0.1Kg, mc = 1Kg, g = 9.8m/s2 et l = 0.5m.
3 Robots manipulateurs
Un robot est un système mécanique multi-articulé mû par des actionneurs et destiné
à e�ectuer une grande variété de tâches (cf. Figure A.3).
Le modèle dynamique d'un robot manipulateur de n degrés de liberté est donné par
l'équation (A.4) (Lewis et al., 1993) :
M(q)q + C(q, q)q +G(q) + F (q) = Γ (A.4)
où q, q, q sont les vecteurs des position, des vitesses et accélérations angulaires respectives,
Γ est le vecteur des couples. M(q) est la matrice d'inertie, elle est symétrique et dé�nie
positive, C(q, q) est la matrice de Coriolis/Centrifuges et G(q) est le vecteur de gravité.
F (q) est le vecteur de frottement.
153
Annexe A. Systèmes non linéaires utilisés
q1
L1
q2
L2
q3
L3
Figure A.3: Robot manipulateur.
Dans le cas d'un robot SCARA à 3 ddl , les matrices du modèle sont donnés par
l'équation (A.5) (Ak and Cansever, 2006b) :
M(q)q + C(q, q)q +G(q) + F (q) = Γ. (A.5)
avec :
M(q) =
M11 = 2.1240 + 1.44cos(q2)
M12 = −0.4907− 0.72cos(q2)
M13 = 0
M21 = −0.4907− 0.72cos(q2)
M22 = −0.4907,M23 = 0
M31 = M32 = M33 = 0
(A.6)
C(q, q) =
C11 = 1.44.q2.sin(q2)
C12 = −0.72.q2.sin(q2)
C22 = −0.72.q2.sin(q2)
C13 = C21 = C23 = 0
C31 = C32 = C33 = 0
(A.7)
G(q) =
G1 = 0
G2 = 0
G3 = −4.9
(A.8)
154
Annexe A. Systèmes non linéaires utilisés
F (q) =
F1 = 12q1 + 0.02sign(q1)+
3sin(3t)
F2 = 12q2 + 0.02sign(q2)+
3sin(3t)
F3 = 12q3 + 0.02sign(q3)+
3sin(3t)
(A.9)
Les bruits externes sont données par :
Γd =
5sin(2t)
5sin(2t)
5sin(2t)
(A.10)
155