modélisation d'une machine asynchrone par réseau de neurone

29
Ministère de lEnseignement Supérieur et de la Recherche Scientifique Université A.Mira Bejaia Faculté de Technologie Département dElectronique Mini projet Thème Présenté par : Promoteur : OURTEMACHE Hacene D r W.GUENOUNOU BENHAMOUCHE Mourad Année universitaire 2009/2010

Upload: bouiche-hachemi

Post on 19-Jun-2015

2.258 views

Category:

Documents


7 download

TRANSCRIPT

Page 1: Modélisation d'une machine asynchrone par réseau de neurone

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique

Université A.Mira Bejaia

Faculté de Technologie

Département d’Electronique

Mini projet

Thème

Présenté par : Promoteur :

OURTEMACHE Hacene Dr W.GUENOUNOU

BENHAMOUCHE Mourad

Année universitaire 2009/2010

Page 2: Modélisation d'une machine asynchrone par réseau de neurone

Introduction générale

1

Introduction générale

Les réseaux de neurones artificiels présente une alternative prometteuse pour de

nombreux domaines ; à savoir la reconnaissance de formes, le traitement d’images, le control

industriel et l’identification [1]. S’inspirant des règles de la génétique, les techniques

neuronales interviennent dans un contexte où les outils courants ont atteint leurs limites.

Grace à leurs propriétés d’approximation universelle, les réseaux de neurones on vu

leur champ d’application s’étaler à de nouvelles classe de problèmes, réputés de complexe

avec succès. Les études antérieures ont montré qu’avec un réseau neuronal à une seule couche

cachée et un nombre suffisant de neurones cachés on peut identifier n’importe quel système

avec n’importe quelle précision [2].

Dans ce travail, les réseaux de neurones sont utilisés pour la modélisation d’une

machine asynchrone commandée en tension.

Le mémoire est organisé en trois chapitres :

Le premier chapitre est consacré à la présentation du modèle neuronal, l’architecture du

réseau et au processus d’apprentissage effectué par celui-ci.

Le deuxième chapitre traite la mise en équation de la machine en présentant la transformation

de Park, et la simulation en boucle ouverte.

Le troisième chapitre est consacré à l’application des réseaux de neurones à la machine

asynchrone, en simulant la sortie du réseau neuronal et la sortie de la machine.

Une conclusion générale clôture le mémoire.

Page 3: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

2

I.1 Introduction

Les réseaux de neurones, fabriqués de structures cellulaires artificielles, constituent

une approche permettant d’aborder sous des angles nouveaux les problèmes de perception, de

mémoire, d’apprentissage et de raisonnement. Grâce à leur traitement parallèle de

l’information et à leurs mécanismes inspirés des cellules nerveuses (neurones), ils infèrent des

propriétés émergentes permettant de solutionner des problèmes complexes.

I.2 Histoire

La première application concrète des réseaux de neurones artificiels est survenue vers

la fin des années 1950 avec l’invention du réseau dit «perceptron» par Frank Rosenblatt.

Rosenblatt et ses collègues ont construit un réseau et démontré ses habilités à reconnaitre des

formes. Vers la fin des années 1960, un livre publié par Marvin Minsky et Seymour Papert sur

les réseaux de neurones. Ces deux auteurs ont démontré les limitations des réseaux

développés par Rosenblatt et Widrow-Hoff. Dans les années 1980, ils ont inventés

l’algorithme de rétropropagation des erreurs. C’est ce nouveau développement, généralement

attribué à David Rumelhart et James McClelland, mais aussi découvert plus ou moins en

même temps par Paul Werbos et par Yann LeCun, qui a littéralement ressuscité le domaine

des réseaux de neurones. Depuis ce temps, c’est un domaine où bouillonne constamment de

nouvelles théories, de nouvelles structures et de nouveaux algorithmes.

I.3 Application

Les réseaux de neurones servent aujourd’hui à toutes sortes d’applications dans divers

domaines. Par exemple, on a développé un autopilote pour avion, ou encore un système de

guidage pour automobile, on a conçu des systèmes de lecture automatique de chèques

bancaires et d’adresses postales, on produit des systèmes de traitement du signal pour

différentes applications militaires, un système pour la synthèse de la parole, des réseaux sont

aussi utilisés pour bâtir des systèmes de vision par ordinateur, pour faire des prévisions sur les

marchés monétaires, pour évaluer le risque financier ou en assurance, pour différents

processus manufacturiers, pour le diagnostic médical, pour l’exploration pétrolière ou gazière,

en robotique, en télécommunication etc...

I.4 Modèle de neurone et réseau

I.4.1 Modèle d’un neurone

Le modèle mathématique d’un neurone artificiel est illustré à la figure 1. Un neurone

est essentiellement constitué d’un intégrateur qui effectue la somme pondérée de ses entrées.

Le résultat 𝑛 de cette somme est ensuite transformé par une fonction de transfert 𝑓 qui produit

la sortie 𝑎 du neurone. Les 𝑅 entrées du neurone correspond au vecteur p = [𝑝1𝑝2 …𝑝𝑅]𝑇 ,

alors que w = [𝑤1,1𝑤1,2 …𝑤1,𝑅]𝑇 représente le vecteur des poids du neurone. La sortie 𝑛 de

l’intégrateur est donnée par l’équation suivante :

𝑛 = 𝑤1,𝑗 𝑝𝑗𝑅𝑗=1 − 𝑏 (1.1)

Que l’on peut aussi écrire sous forme matricielle :

Page 4: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

3

𝑛 = wT p – 𝑏 (1.2)

Cette sortie correspond à une somme pondérée des poids et des entrées moins le biais 𝑏 du

neurone. Le biais 𝑏 s’appelle aussi le seuil d’activation. Lorsque le niveau d’activation atteint

ou dépasse le seuil, alors l’argument de 𝑓 devient positif (ou nul). Sinon, il est négatif.

Figure 1.1. Modèle d’un neurone artificiel.

On peut faire un parallèle entre ce modèle mathématique et certaines informations que

l’on connait à propos du neurone biologique. Ce dernier possède trois principales

composantes : les dendrites, le corps cellulaire et l’axone (figure 2). Les dendrites forment un

maillage de récepteurs nerveux qui permettent d’acheminer vers le corps du neurone des

signaux électriques en provenance d’autres neurones. Celui-ci agit comme une espèce

d’intégrateur en accumulant des charges électriques. Lorsque le neurone devient suffisamment

excité (lorsque la charge accumulée dépasse un certain seuil), par un processus

électrochimique, il engendre un potentiel électrique qui se propage à travers son axone pour

éventuellement venir exciter d’autres neurones. Le point de contact entre l’axone d’un

neurone et la dendrite d’un autre neurone s’appelle la synapse.

Figure 1.2. Schéma d’un neurone biologique.

Un autre facteur limitatif dans le modèle que nous nous sommes donnés concerne son

caractère discret. En effet, pour pouvoir simuler un réseau de neurones, nous allons rendre le

temps discret dans nos équations. Autrement dit, nous allons supposer que tous les neurones

Page 5: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

4

sont synchrones, c’est-à-dire qu’à chaque temps 𝑡, ils vont simultanément calculer leur

somme pondérée et produire une sortie 𝑎 𝑡 = 𝑓 𝑛 𝑡 .

On ajoutant la fonction d’activation 𝑓 pour obtenir la sortie du neurone :

𝑎 = 𝑓 𝑛 = 𝑓(wT p – 𝑏) (1.3)

En remplaçant wT

par une matrice W = wT d’une seule ligne, on obtient une forme générale

𝑎 = 𝑓(W p−𝑏) (1.4)

L’équation 4.4 nous amène à introduire un schéma de notre modèle plus compact que celui

de la figure 4.1. La figure 4.3 illustre celui-ci. On y représente les 𝑅 entrées comme un

rectangle. De ce rectangle sort le vecteur p. Ce vecteur est multiplié par une matrice W qui

contient les poids synaptique. Finalement, la sortie du neurone est calculée par la fonction

d’activation 𝑓.

Figure 1.3. Représentation matricielle du modèle d’un neurone artificiel.

I.4.2 Fonction de transfert

Différentes fonctions de transfert pouvant être utilisées comme fonction d’activation

du neurone sont énumérées au tableau ci-dessous. Les trois les plus utilisées sont les fonctions

« seuil », « linéaire », et « sigmoïde ».

Page 6: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

5

Nom de la fonction Relation d’entrée/sortie Icône Nom Matlab

seuil 𝑎 = 0 𝑠𝑖 𝑛 < 0

𝑎 = 1 𝑠𝑖 𝑛 ≥ 0

hardlim

Seuil symétrique 𝑎 = −1 𝑠𝑖 𝑛 < 0

𝑎 = 1 𝑠𝑖 𝑛 ≥ 0

hardlims

linéaire 𝑎 = 𝑛

purelin

Sigmoïde 𝑎 =

1

1 + 𝑒𝑥𝑝−𝑛

Logsig

Tableau 1.1. Fonctions de transfert 𝑎 = 𝑓 𝑛 .

La figure 4.4 illustre ces fonctions :

(a) (b) (c)

Figure 1.4. Fonction de transfert : (a) du neurone « seuil » ; (b) du neurone « linéaire » ; (c)

du neurone « sigmoïde ».

I.4.3- Architecture de réseau

Un réseau de neurones est un maillage de plusieurs neurones, généralement organisé

en couches. Pour construire une couche de 𝑆 neurones, il s’agit simplement de les assembler

comme à la figure 4.5. Les 𝑆 neurones d’une même couche sont tous branchés aux 𝑅 entrées.

L’ensemble des poids d’une couche forme une matrice W de dimension 𝑆 ∗ 𝑅 :

𝑤1,1 ⋯ 𝑤1,𝑅

⋮ ⋱ ⋮𝑤𝑆,1 ⋯ 𝑤𝑆,𝑅

Page 7: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

6

Figure 1.5. Couche de 𝑆 neurones.

Pour construire un réseau il ne suffit plus que de combiner des couches comme à la

figure 1.6. Cet exemple comporte 𝑅 entrées et trois couches de neurones. Chaque couche

possède sa propre matrice de poids Wk , où k est l’indice de couche. Les vecteurs b

k, n

k et a

k

sont associés à la couche k.

Les réseaux multicouches sont beaucoup plus puissants que les réseaux simples à une

seule couche. En utilisant deux couches (une couche cachée et une couche de sortie), à

condition d’employer une fonction d’activation sigmoïde sur la couche cachée, on peut

entrainer un réseau à produire une approximation de la plupart des fonctions, avec une

précision arbitraire (cela peut cependant requérir un grand nombre de neurones sur la couche

cachée). Sauf dans de rares cas, les réseaux de neurones artificiels exploitent deux ou trois

couches.

Figure 1.6. Représentation matricielle d’un réseau de trois couches.

Page 8: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

7

I.5 processus d’apprentissage

Parmi les propriétés désirables pour un réseau de neurones, la plus fondamentale est

surement la capacité d’apprendre de son environnement, d’améliorer sa performance à travers

un processus d’apprentissage. Mais qu’est-ce donc que l’apprentissage ?

L’apprentissage est un processus dynamique et itératif permettant de modifier les paramètres

d’un réseau en réaction avec les stimuli qu’il reçoit de son environnement.

Le type d’apprentissage est déterminé par la manière dont les changements de paramètre

surviennent.

Cette définition implique qu’un réseau se doit d’être stimulé par un environnement,

qu’il subisse des changements en réaction avec cette stimulation, et que ceux-ci provoquent

dans le futur une réponse nouvelle vis-à-vis de l’environnement. Ainsi, le réseau peut

s’améliorer avec le temps.

L’apprentissage se traduit par une modification de l’efficacité synaptique, c’est-à-dire

par un changement dans la valeur des poids qui relient les neurones d’une couche à l’autre.

Soit le poids 𝑤𝑖 ,𝑗 reliant le neurone 𝑖 à son entrée 𝑗.Au temps 𝑡, un changement ∆𝑤𝑖,𝑗 (𝑡) peut

s’exprimer par :

∆𝑤𝑖,𝑗 𝑡 = 𝑤𝑖 ,𝑗 𝑡 + 1 − 𝑤𝑖,𝑗 𝑡 (1.5)

Nous allons voir un apprentissage utilisé pour effectuer des taches d’apprentissage tel que

l’approximation des fonctions et la commande appelé apprentissage « supervisé ». Ce type

d’apprentissage est basé sur la correction de l’erreur.

I.5.1 Correction de l’erreur

Soit 𝑎𝑖(𝑡) la sortie que l’on obtient pour le neurone 𝑖 au temps 𝑡. Cette sortie résulte

d’un stimulus 𝑝(𝑡) que l’on applique aux entrées du réseau dont un des neurones correspond

au neurone 𝑖. Soit 𝑑𝑖(𝑡) la sortie que l’on désire obtenir pour ce même neurone 𝑖 au temps 𝑡.

Alors, 𝑎𝑖(𝑡) et 𝑑𝑖(𝑡) seront généralement différents et il est naturel de calculer l’erreur 𝑒𝑖(𝑡) entre ce qu’on obtient et ce qu’on voudrait obtenir :

𝑒𝑖 𝑡 = 𝑑𝑖 𝑡 − 𝑎𝑖 𝑡 (1.6)

et de chercher un moyen de réduire autant que possible cette erreur. Sous forme vectorielle,

on obtient :

𝑒 𝑡 = 𝑑 𝑡 − 𝑎(𝑡) (1.7)

Avec 𝑒 𝑡 = [ 𝑒1 𝑡 𝑒2 𝑡 … 𝑒𝑖 𝑡 … 𝑒𝑠 𝑡 ] désigne le vecteur des erreurs observé sur les 𝑆

neurones de sortie. L’apprentissage par correction des erreurs consiste à minimiser un indice

de performance 𝐹 basé sur les signaux d’erreur 𝑒𝑖 𝑡 , dans le but de faire converger les sorties

du réseau avec ce qu’on voudrait qu’elles soient. Un critère très populaire est la somme des

erreurs quadratiques :

Page 9: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

8

𝐹 𝑒 𝑡 = 𝑒𝑖2(𝑡)

𝑆

𝑖=1

(1.8)

Pour minimiser 𝐹 𝑒 𝑡 = 𝐹 𝑤 𝑡 = 𝐹(𝑡), nous allons commencer par choisir des poids

initiaux (𝑡 = 0) au hasard, puis nous allons les modifier de la manière suivante :

𝑤 𝑡 + 1 = 𝑤 𝑡 + 𝑛𝑋(𝑡) (1.9)

Où le vecteur 𝑋 𝑡 désigne la direction dans laquelle nous allons chercher le minimum et 𝑛

est une constante positive déterminant l’amplitude du pas dans cette direction (la vitesse

d’apprentissage).

L’objectif est de faire en sorte que 𝐹 𝑡 + 1 < 𝐹(𝑡), donc on doit choisir la direction 𝑋 pour

que la condition précédente soit vérifiée.

Considérons la série de Taylor de 1er ordre autour de 𝑤(𝑡) :

𝐹 𝑡 + 1 = 𝐹 𝑡 + ∇𝐹 𝑡 𝑇∆𝑤(𝑡) (1.10)

Où ∇𝐹(𝑡) désigne le gradient de F par rapport à ses paramètres (les poids) au temps 𝑡. Or,

pour que 𝐹 𝑡 + 1 < 𝐹(𝑡), il faut que la condition suivante soit respectée :

∇𝐹 𝑡 𝑇∆𝑤 𝑡 = 𝑛∇𝐹 𝑡 𝑇𝑋 𝑡 < 0 (1.11)

Donc,

𝑋 𝑡 = −∇𝐹(𝑡) (1.12)

Ce qui engendre la règle dite « descente du gradient » :

−𝑛∇𝐹 𝑡 = ∆𝑤(𝑡) (1.13)

I.5.2 L’apprentissage supervisé

L’apprentissage dit superviser est caractérisé par la présence d’un «professeur» qui

possède une connaissance approfondie de l’environnement dans lequel évolue le réseau de

neurones. En pratique, les connaissances de ce professeur prennent la forme d’un ensemble de

𝑄 couples de vecteurs d’entrée et de sortie que nous noterons

𝑝1, 𝑑1 , 𝑝2 , 𝑑2 … , 𝑝𝑄 , 𝑑𝑄 , où 𝑝𝑖 désigne un stimulus et 𝑑𝑖 la cible pour ce stimulus.

L’apprentissage supervisé est illustré d’une manière conceptuelle à la figure 5.1.

L’environnement est inconnu du réseau. Celui-ci produit un stimulus 𝑝 qui est acheminé à la

fois au professeur et au réseau. Grace à ses connaissances intrinsèques, le professeur produit

une sortie désirée 𝑑(𝑡) pour ce stimulus. On suppose que cette réponse est optimale. Elle est ensuite comparée (par soustraction) avec la sortie du réseau pour produire un signal d’erreur

𝑒(𝑡) qui est réinjecté dans le réseau pour modifier son comportement via une procédure itérative qui, éventuellement, lui permet de simuler la réponse du professeur. Autrement dit, la

connaissance de l’environnement par le professeur est graduellement transférée vers le réseau

jusqu’à l’atteinte d’un certain critère d’arrêt. Par la suite, on peut éliminer le professeur et

laisser le réseau fonctionner de façon autonome.

Page 10: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

9

Figure 1.7 apprentissage supervisé.

I.6 La rétropropagation des erreurs

Cette méthode consiste à minimiser un indice de performance F basé sur l’erreur

quadratique moyenne. On peut propager vers l’avant un vecteur 𝑝(𝑡) pour obtenir une sortie

𝑎(𝑡). Ceci nous permet de calculer l’erreur entre la sortie désirée et la sortie du réseau.

I.7 Exemple illustratif (approximation d’une fonction)

La tache d’approximation consiste à concevoir un réseau de neurone capable

d’associer les éléments des couples entrée-sortie. Ce problème peut être résolu à l’aide d’un

apprentissage supervisé.

On a introduit 10 neurones dans la couche cachée et 1 neurone dans la couche de

sortie. La fonction de transfert dans la couche cachée est sigmoide et dans la couche de sortie

est linaire. Le réseau est créé avec la fonction « newff » (feed-forward). C’est un réseau

multicouche avec un apprentissage par rétropropagation, cette commande crée le réseau et

initialise ces poids.

En prenant une fonction à deux entrées, on peut la simuler avec et sans entrainement et

voir l’erreur avant et après apprentissage. Z = X .* exp(-X.^2 - Y.^2);

Figure 1.8 fonction à entrainée

-2

-1

0

1

2

-2

-1

0

1

2-0.5

0

0.5

fonction à entrainée

Page 11: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

10

Figure 1.9 erreur avant apprentissage.

Figure 1.10 erreur après apprentissage.

On remarque d’après les figures que l’erreur a diminuée après l’entrainement du réseau.

La figure ci-dessous montre l’évolution de l’indice de performance en fonction du nombre

d’itération.

-2

-1

0

1

2

-2

-1

0

1

2-0.1

-0.05

0

0.05

0.1

-2

-1

0

1

2

-2

-1

0

1

2-1.5

-1

-0.5

0

0.5

1

1.5

erreur après apprentissage

Page 12: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre I Réseaux de neurones

11

Figure 1.10 Evolution de l’indice de performance

Le réseau a bien appris la fonction en modifiant ses poids c'est-à-dire qu’il a optimisé

l’indice de performance afin que sa sortie converge vers la sortie désirée.

0 2 4 6 8 10 12 14 16 18 2010

-5

10-4

10-3

10-2

10-1

100

20 Epochs

Tra

inin

g-B

lue

Performance is 3.87326e-005, Goal is 0

Page 13: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

11

II.1 modélisation de la machine asynchrone

Le comportement électrique d’un système ne peut être étudié que s’il est possible de

le définir par un modèle mathématique, c’est ce qu’on appelle la modélisation, c’est pour ça

que c’est une étape indispensable pour concevoir des systèmes de commande performants

Généralement la transformation de Park est utilisée pour modéliser les machines

alternatives. En décrivant la machine tournante dans un référentiel adéquat, les équations de

la machine sont simplifiées. Cela rend leur étude et leurs exploitations plus aisées et permet

l’étude des régimes transitoires. Un certain nombre d’hypothèses simplificatrices peuvent

être adoptées, pour une mise en équations particulièrement simple.

II.1.1 définition et principe de fonctionnement

Une machine asynchrone est une machine a induction, sans collecteur et dont une

partie des enroulements est reliée au réseau, l’autre travaillant par induction.

Elle est constituée de deux parties principales :

une fixe appelée « STATOR ».

une mobile appelée « «ROTOR ».

Ces deux parties sont séparée par un espace appelé « entrefer ».

Le « STATOR »et le « ROTOR » sont des circuits composés d’enroulements formants

des spires électromagnétiques. Sièges d’un champ magnétique.

Le « STATOR »représente le circuit récepteur triphasé, il permet de créer un champ

magnétique dans l’enceinte de la machine.

Ce champ évolue à la fréquence de la source d’alimentation triphasée.

Le « ROTOR » est un circuit fermé sur lui-même il se trouve immergé dans le champ

magnétique tournant créé par le « STATOR », il est alors, le siège des courants induits de

Foucault tentent alors s’opposer à la cause qui leur à donner naissance, soit une rotation.

Page 14: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

12

Figure 2.1 Représentation shématique de la machine asynchrone

II.1.2 problèmes posés

Dans la machine asynchrone le courant statorique sert à la fois à générer le flux et le

couple, le découplage naturel de la machine à courant continus n’existe plus.

D’autre part, on peut connaitre les variables internes du rotor qu’à travers le stator.

L’inaccessibilité du rotor nous amènera à modifier l’équation vectorielle rotorique

pour exprimer les grandeurs rotoriques à travers leurs actions sur le stator.

II.1.3 hypothèses simplificatrices

La modélisation s’appuie sur un certain nombre d’hypothèses :

entrefer d’épaisseur uniforme et d’effet d’encochages négligé.

Perte magnétique négligeable.

Distribution spatiale et sinusoïdale des forces magnétomotrices.

II.1.4 Equation de la MAS

a) Equation en tension

Stator: 𝑉𝑠 = 𝑅𝑠 𝐼𝑠 +𝑑 Ø

𝑑𝑡 (2.1)

Rotor: 𝑉𝑟 = 𝑅𝑟 𝐼𝑟 +𝑑 Ø𝑟

𝑑𝑡 (2.2)

Avec : Ø𝑠 = Ø𝑠𝑎 Ø𝑠𝑏 Ø𝑠𝑐 𝑇 (2.3)

Page 15: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

13

Ø𝑟 = Ø𝑟𝑎 Ø𝑟𝑏 Ø𝑟𝑐 𝑇 (2.4)

𝐼𝑠 = 𝐼𝑠𝑎 𝐼𝑠𝑏 𝐼𝑠𝑐 𝑇 (2.5)

𝐼𝑟 = 𝐼𝑟𝑎 𝐼𝑟𝑏 𝐼𝑟𝑐 𝑇 (2.6)

𝑅𝑠 = 𝑅𝑠 ∗ 1 0 00 1 00 0 1

(2.7)

𝑅𝑟 = 𝑅𝑟 ∗ 1 0 00 1 00 0 1

(2.8)

𝑅𝑠 , 𝑅𝑟 : Résistances par phase du stator et du rotor

𝑉𝑠 , 𝑉𝑟 : Vecteurs de phases statoriques et rotoriques.

Ø𝑠 , Ø𝑟 : Vecteurs des flux statoriques et rotoriques.

𝐼𝑠 , 𝐼𝑟 : Vecteurs des courants par phases statoriques et rotoriques.

b) Equation de flux

Stator: Ø𝑠 = 𝐿𝑠𝑠 𝐼𝑠 + 𝑀𝑠𝑟 𝐼𝑟 (2.9)

Rotor: Ø𝑟 = 𝐿𝑟𝑟 𝐼𝑟 + 𝑀𝑟𝑠 𝑇 𝐼𝑠 (2.10)

Les matrices 𝐿𝑠𝑠 , 𝐿𝑟𝑟 et 𝑀𝑠𝑟 sont définies par :

𝐿𝑠𝑠 = 𝑙𝑠 𝑚𝑠 𝑚𝑠𝑚𝑠 𝑙𝑠 𝑚𝑠𝑚𝑠 𝑚𝑠 𝑙𝑠

(2.11)

𝐿𝑟𝑟 = 𝑙𝑟 𝑚𝑟 𝑚𝑟𝑚𝑟 𝑙𝑟 𝑚𝑟𝑚𝑟 𝑚𝑟 𝑙𝑟

(2.12)

𝑀𝑠𝑟 = 𝑀𝑠𝑟 ∗

cos 𝛼 cos 𝛼 + 2𝜋/3 cos 𝛼 − 2𝜋/3

cos 𝛼 − 2𝜋/3 cos 𝛼 cos 𝛼 + 2𝜋/3

cos 𝛼 + 2𝜋/3 cos 𝛼 − 2𝜋/3 cos 𝛼

(2.13)

ls, lr : inductances propres, statoriques et rotoriques, d’une phase ;

ms, mr : inductances mutuelles entre phases, statoriques et rotoriques ;

𝑀𝑠𝑟 : Maximum de l’inductance mutuelle entre une phase de stator et la phase correspondante

du rotor ;

𝛼 ∶Angle entre l’axe rotorique et l’axe statorique correspondant.

c) Equation mécanique

Page 16: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

14

Le second principe de la dynamique nous donne :

𝐽𝑑 Ω

𝑑𝑡=𝐶𝑒 − 𝐶𝑟 − 𝐹Ω (2.14)

𝐽 : Moment d’inertie de l’ensemble des éléments tournants ;

Ω : vitesse angulaire du rotor ;

𝐶𝑟 : Couple résistant ;

𝐹 : Coefficient de frottement visqueux ;

Le couple magnétique est donné par la formule :

𝐶𝑒 =1

2 𝐼𝑠

𝑇 𝑑 𝑀𝑠𝑟

𝑑𝛼 𝐼𝑟 (2.15)

II.2 transformation de Park

Pour simplifier la présentation dans les équations précédentes, on introduit la

transformation de Park, obtenue à l’aide de la matrice P, qui consiste à passer d’un

enroulement triphasé à un enroulement biphasé

Le changement de variables relatif aux courants, aux tensions et aux flux est donné par

la transformation :

𝑋𝑑

𝑋𝑞

𝑋0

= 𝑃 𝑋𝑎

𝑋𝑏

𝑋𝑐

(2.16)

𝑋𝑎

𝑋𝑏

𝑋0𝑐

= 𝑃−1

𝑋𝑑

𝑋𝑞

𝑋0

(2.17)

P est une matrice définit comme suit :

𝑃 𝜃 = 2

3

cos 𝜃 cos 𝜃 − 2𝜋/3 cos 𝜃 + 2𝜋/3

− sin 𝜃 − sin 𝜃 − 2𝜋/3 sin 𝜃 + 2𝜋/3

1

2

1

2

1

2

(2.18)

« X » : tension courant ou flux ;

« O » : indice de l’axe homopolaire ;

Page 17: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

15

𝜃 = 𝜃𝑠 : Lorsqu’il s’agit des grandeurs statoriques ;

𝜃 = 𝜃𝑟 : Lorsqu’il s’agit des grandeurs rotoriques ;

L’application de la transformation de Park donne lieu aux équations :

𝑉𝑠𝑑

𝑉𝑠𝑞 =

𝑅𝑠 00 𝑅𝑠

𝐼𝑠𝑑𝐼𝑠𝑞

+𝑑

𝑑𝑡 Ø𝑠𝑑

Ø𝑠𝑞 +

0 −𝑤𝑠𝑤𝑠 0

Ø𝑠𝑑

Ø𝑠𝑞 (2.19)

𝑉𝑟𝑑

𝑉𝑟𝑞 =

𝑅𝑟 00 𝑟

𝐼𝑠𝑑𝐼𝑠𝑞

+𝑑

𝑑𝑡 Ø𝑟𝑑

Ø𝑟𝑞 +

0 −𝑤𝑟𝑤𝑟 0

Ø𝑠𝑑

Ø𝑠𝑞 (2.20)

Ø𝑠𝑑

Ø𝑟𝑑 =

𝐿𝑠 𝑀𝑠𝑟

𝑀𝑠𝑟 𝐿𝑟

𝐼𝑠𝑑𝐼𝑟𝑑

(2.21)

Ø𝑠𝑞

Ø𝑟𝑑 =

𝐿𝑠 𝑀𝑠𝑟

𝑀𝑠𝑟 𝐿𝑟

𝐼𝑠𝑞𝐼𝑟𝑞

(2.22)

𝐶𝑒 = 𝑃.

𝑀𝑠𝑟𝐿𝑟

Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.23)

Avec :

𝐿𝑠 = 𝑙𝑠 − 𝑚𝑠 ∶ Inductances propres cyclique du stator.

𝐿𝑟 = 𝑙𝑟 − 𝑚𝑟 ∶ Inductances propres cyclique du rotor.

𝑀𝑠𝑟 =3

2𝑚𝑠𝑟 ∶ Inductance mutuelle cyclique entre stator et rotor.

𝑃 ∶ Nombres de paire de pôles de la machines.

II.2.1 Choix du système d’axe de référence

Il existe plusieurs possibilités concernant l’orientation de repère d et q qui dépendent

des objectifs de l’application

Référentiel lié au stator :( 𝜃𝑠 =0),

Il se traduit par la condition : 𝜃𝑟 = −𝛼,𝑑𝜃𝑟

𝑑𝑡= −𝜔 (2.24)

Référentiel lié au rotor :( 𝜃𝑟 =0),

Il se traduit par la condition : 𝜃𝑠 = 𝛼,𝑑𝜃𝑠

𝑑𝑡=ω (2.25)

Référentiel lié au champ tournant,

Il se traduit par la condition 𝜃𝑠 − 𝜃𝑟 = 𝛼 𝑒𝑡 ωs- ωr= ω

Ce référentiel est le seul qui n’introduit pas de simplification dans la formation des

équations, il est cependant, la solution pour réaliser le pilotage vectoriel du fait que les

grandeurs de réglage deviennent continues dans ce référentiel. Il permet aussi d’obtenir une

expression scalaire du couple électromagnétique en analogie avec le couple des machines à

courant continu.

Page 18: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

16

Dans ces conditions, le modèle de la machine asynchrone devient :

𝑉𝑠𝑑 = 𝑅𝑠𝐼𝑠𝑑+𝑑Ø𝑠𝑑

𝑑𝑡 – ωs Ø𝑠𝑞 (2.26)

𝑉𝑠𝑞 = 𝑅𝑠𝐼𝑠𝑞+𝑑Ø𝑠𝑞

𝑑𝑡 – ωs Ø𝑠𝑑 (2.27)

0 = 𝑅𝑟𝐼𝑟𝑑+𝑑Ø𝑟𝑑

𝑑𝑡 – ωr Ø𝑟𝑞

0 = 𝑅𝑟𝐼𝑟𝑞+𝑑Ø𝑟𝑞

𝑑𝑡 – ωr Ø𝑟𝑑 (2.28)

II.2.1 Expression du couple magnétique

𝐶𝑒 = 𝑃.𝑀 𝐼𝑟𝑑 𝐼𝑠𝑞 − 𝐼𝑟𝑞 𝐼𝑠𝑑 (2.29)

𝐶𝑒 = 𝑃.

𝑀

𝐿𝑟

Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.30)

II.2.3 Equation mécanique

ω = P Ω (2.31)

𝐶𝑒 − 𝐶𝑟 =𝐽

𝑃

𝑑𝜔

𝑑𝑡+

𝑓

𝑃 ω (2.32)

II.3 Simulation de la machine alimentée directement sur le réseau

Le but de la simulation est de valider le modèle de la machine asynchrone.

Page 19: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

17

Figure 2.2 Modèle Simulink de la machine asynchrone avec TP et TPI

II.3.1 Création du bloc de simulation

La modélisation de la machine asynchrone est basée sur les équations obtenues avec la

transformation de Park que nous rappelons ci-dessous

𝑉𝑠𝑑 = 𝑅𝑠𝐼𝑠𝑑+𝑑Ø𝑠𝑑

𝑑𝑡 – ωs Ø𝑠𝑞 (2.33)

𝑉𝑠𝑞 = 𝑅𝑠𝐼𝑠𝑞+𝑑Ø𝑠𝑞

𝑑𝑡 – ωs Ø𝑠𝑑 (2.34)

0 = 𝑅𝑟𝐼𝑟𝑑+𝑑Ø𝑟𝑑

𝑑𝑡 – ωr Ø𝑟𝑞 (2.35)

0 = 𝑅𝑟𝐼𝑟𝑞+𝑑Ø𝑟𝑞

𝑑𝑡 – ωr Ø𝑟𝑑 (2.36)

Ø𝑠𝑑 = 𝐿𝑠𝐼𝑠𝑑 + 𝑀 𝐼𝑟𝑑 (2.37)

Ø𝑠𝑞 = 𝐿𝑠𝐼𝑠𝑞 + 𝑀 𝐼𝑟𝑞 (2.38)

Ø𝑟𝑑 = 𝐿𝑟𝐼𝑟𝑑 + 𝑀 𝐼𝑠𝑑 (2.39)

Ø𝑟𝑞 = 𝐿𝑟𝐼𝑟𝑞 + 𝑀 𝐼𝑠𝑞 (2.40)

L’expression du couple est :

𝐶𝑒 = 𝑃.

𝑀

𝐿𝑟

Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.41)

𝑉𝑠𝑑 , 𝑉𝑠𝑞 et ωs grandeurs de commande

𝐼𝑠𝑑 , 𝐼𝑠𝑞 grandeurs de contrôle mesurable

Ø𝑟𝑑 , Ø𝑟𝑞 grandeurs de contrôle non mesurable

En remplaçant les équations précédentes par :

Ø𝑠𝑑 = 𝐿𝑠𝐼𝑠𝑑 + 𝑀 𝐼𝑟𝑑 (2.42)

Ø𝑠𝑞 = 𝐿𝑠𝐼𝑠𝑞 + 𝑀 𝐼𝑟𝑞 (2.43)

𝐼𝑟𝑑 =Ø𝑟𝑑 −𝑀 𝐼𝑠𝑑

𝐿𝑟 (2.44)

𝐼𝑟𝑞 =Ø𝑟𝑞 −𝑀 𝐼𝑠𝑞

𝐿𝑟 (2.45)

Avec 𝜎 = 1 − 𝑀2

𝐿𝑠 𝐿𝑟

(coefficient de Blondel), 𝑇𝑟 =𝐿𝑟

𝑅𝑟

On trouve :

Page 20: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

18

𝑉𝑠𝑑 = (𝑅𝑠 + 𝜎𝐿𝑠 . 𝑆) 𝐼𝑠𝑑– 𝜔𝑠 𝜎𝐿𝑠𝐼𝑠𝑞 +𝑀.𝑆

𝐿𝑟 Ø𝑟𝑑 – ωs

𝑀

𝐿𝑟 Ø𝑟𝑞 (2.46)

𝑉𝑠𝑞 = (𝑅𝑠 + 𝜎𝐿𝑠 . 𝑆) 𝐼𝑠𝑞– 𝜔𝑠 𝜎𝐿𝑠𝐼𝑠𝑑 +𝑀.𝑆

𝐿𝑟 Ø𝑟𝑞 – ωs

𝑀

𝐿𝑟 Ø𝑟𝑑 (2.47)

Ø𝑟𝑑 1 + 𝑇𝑟 . 𝑆 = 𝑀 𝐼𝑠𝑑 +𝑇𝑟 𝜔𝑟 Ø𝑟𝑞 (2.48)

Ø𝑟𝑞 1 + 𝑇𝑟 . 𝑆 = 𝑀 𝐼𝑠𝑞 – 𝑇𝑟 𝜔𝑟 Ø𝑟𝑑 (2.49)

A partir de ces équations, on réalise le modèle de la machine :

Figure 2.3 Modèle Simulink de la machine asynchrone

A partir de ces équations, on réalise le modèle de la machine :

On alimente la machine asynchrone par une tension triphasée sinusoïdale, et on crée

un bloc qui représente la transformation de Park (figure 2.4) et un bloc de transformation

inverse de Park (figure 2.5).

On rappelle que la matrice de Park s’écrit :

𝑋𝑠𝑑

𝑋𝑠𝑞

𝑋𝑠0

= 2

3

cos 𝜃 cos 𝜃 − 2𝜋/3 cos 𝜃 + 2𝜋/3

− sin 𝜃 − sin 𝜃 − 2𝜋/3 sin 𝜃 + 2𝜋/3

1

2

1

2

1

2

𝑋𝑠𝑎

𝑋𝑠𝑏

𝑋𝑠𝑐

, θ = 𝜃𝑠 (2.50)

Page 21: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

19

La transformation de Park inverse est :

𝑋𝑠𝑎

𝑋𝑠𝑏

𝑋𝑠𝑐

= 2

3

cos 𝜃 − sin 𝜃

1

2

cos 𝜃 −2𝜋

3 − sin 𝜃 −

2𝜋

3

1

2

cos 𝜃 +2𝜋

3 − sin 𝜃 +

2𝜋

3

1

2

𝑋𝑠𝑑

𝑋𝑠𝑞

𝑋𝑠0

, θ = 𝜃𝑠 (2.51)

Figure 2.4 Bloc Simulink de la transformation de Park inverse

On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple

résistant de 20N.m égal au couple de la machine.

Page 22: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

20

II.3.2 Résultats de simulation

On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple

résistant de 20N.m égal au couple de la machine.

Figure 2.5 Réponse de la MAS : Vitesse

Figure 2.7 Réponse de la MAS : couple

0 1 2 3 4 5 6 7 8 9 100

50

100

150

200

250

300

350Réponse de la vitesse

temps (s)

vites

se (m

/s)

0 1 2 3 4 5 6 7 8 9 10-10

-5

0

5

10

15

20

25

30

35Réponse du couple

coup

le (N

.m)

temps (s)

Page 23: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre II modélisation de la machine asynchrone

21

Figure 2.8 Réponse de la MAS : courant

II.3.3 Commentaires

On remarque sur la figure (2-6) qu’en appliquant directement la tension alternative

aux bornes de machine asynchrone, l’apparition d’un couple transitoire de 32(N.m) environ et

pour la figure (2-7)

On remarque que la vitesse passe de 320 (m/s) à 280 (m/s), après avoir appliqué un

couple résistant de 20 (N.m).

Concernant le courant de phase (2-8), on remarque qu’il est environ 35(A) lors du

démarrage, de 4(A) En régime permanant et de11(A) Apres application du couple résistant

On peut conclure à ce niveau que la machine asynchrone simulée présente un

comportement très proche de la machine réelle

0 1 2 3 4 5 6 7 8 9 10-40

-30

-20

-10

0

10

20

30

40Réponse du courant

temps (s)

cour

ant (

A)

Page 24: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre III application à la machine asynchrone

22

III.1 Modélisation par réseaux de neurones

Les réseaux de neurones sont considérés comme des approximateurs universels. Il a

été démontré qu’un réseau de neurones avec une structure convenable peut approximer

n’importe quelle correspondance entre espace d’entrée et espace de sortie. L’entrainement

n’exige que les données entrées/sorties.

Le principe de la modélisation neuronale consiste à placer un réseau neuronal en

parallèle avec le système et l’entrainer pour émuler le comportement dynamique de ce

dernier.

Il existe deux types d’identification :

Identification série-parallèle

Dans cette structure (figure 3.1), le réseau est placé en parallèle avec le système. En plus des

valeurs du signal de commande, le réseau reçoit les valeurs passé de système à modéliser.

Figure 3.1 identification série-parallèle

Identification parallèle

Dans cette structure (figure 3.2), le réseau est complètement en parallèle avec le

système. En plus des valeurs du signal de commande, le réseau reçoit les valeurs passé de sa

propre sortie.

Page 25: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre III application à la machine asynchrone

23

Figure 3.2 identification parallèle

III.2 Modélisation de la machine asynchrone

Dans ce qui suit nous allons s’intéresser à l’identification de la machine asynchrone

par réseau de neurones. La figure 3.3 illustre le schéma de principe d’identification. Le réseau

reçoit par ses entrées les trois tensions triphasées appliquées à la machine ainsi que la vitesse

de rotation du rotor décalée d’une période d’échantillonnage. Il s’agit de la structure

d’identification série- parallèle.

L’erreur entre la vitesse réelle de la machine et celle du réseau neuronal permet

d’ajuster les poids de connexions lors de la phase d’apprentissage. Le réseau comporte une

seule couche cachée à 10 neurones et une couche d’entrée de 4 neurones. Un seul neurone

constitue la couche de sortie. La fonction de transfert de la couche cachée est une fonction

sigmoide, tendis que la fonction de transfert de la couche de sortie est linéaire.

Figure 3.3 principe d’identification.

Page 26: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre III application à la machine asynchrone

24

La séquence d’apprentissage est obtenue à partir du modèle de la machine en appliquant les

tensions sur un intervalle [0 :10] seconde.

III.2.1 Résultat de simulation

Figure 3.4 évolution de l’erreur après apprentissage.

Figure 3.5 Sorties de la machine asynchrone et du réseau de neurones.

0 200 400 600 800 1000 1200-150

-100

-50

0

50

100erreur après apprentissage

0 0.5 1 1.5 2 2.5 3 3.5

200

220

240

260

280

300

320

temps [s]

vitesse [

rad/s

]

sortie réseaux neurones

sortie machine asynchrone

Page 27: Modélisation d'une machine asynchrone par réseau de neurone

Chapitre III application à la machine asynchrone

25

III.2.2 Commentaire

On remarque d’après la figure 3.4 que l’erreur diminue au fil de la séquence d’apprentissage

cela montre que le réseau de neurone a bien assimilé la sortie qui est la vitesse de rotation de

la machine.

Dans la figure 3.5 la vitesse de la machine et du réseau sont presque identique, ce qui

démontre l’efficacité du réseau à apprendre de son environnement.

III.2.3 influence des paramètres du réseau de neurone sur l’erreur quadratique :

La modification du nombre de neurone ou la modification du nombre de couche cachée

entraine la modification de l’erreur.

La performance du réseau est élevée en augmentant le nombre de neurone dans la couche

cachée ou en ajoutant une autre couche cachée au réseau, c'est-à-dire l’indice de performance

est minimisé dans plus en plus.

Mais remarquons qu’un excès dans le nombre de neurone peut détériorer le réseau c'est-à-dire

qu’il peut perdre ces performance.

Page 28: Modélisation d'une machine asynchrone par réseau de neurone

Conclusion générale

26

Conclusion générale

Le travail présenté dans ce mini projet a porté sur la modélisation de la machine

asynchrone et cela à l’aide d’un outil qui est le réseau de neurone.

Nous avons commencé par s’initier au monde des réseaux de neurones en exposant

leurs principales caractéristiques. Ce qui leurs a permis de s’intégrer dans plusieurs domaines

tel que la reconnaissance de forme, la classification et la modélisation.

La modélisation de la machine par la transformation de Park nous a permis de

remplacer les variables alternatives par des grandeurs évoluant continument ainsi on a pu

simuler le comportement de la machine asynchrone en boucle ouverte.

Dans le cas des réseaux neurones nous avons optés pour l’algorithme de

rétropropagation, ce dernier permet l’apprentissage de l’ensemble des paramètres du réseau a

partir d’un jeu de donné entré-sortie

Pour l’application on a testé les performances de l’algorithme pour la modélisation de

la machine asynchrone, les résultats obtenus sont très satisfaisants et montre l’influence du

nombre de couche cachées et du nombre de neurones dans chaque couche.

L’étude s’est limité théoriquement, cependant on à montré par simulation l’intérêt des

réseaux neurones pour la modélisation des machines alternatives.

Page 29: Modélisation d'une machine asynchrone par réseau de neurone

Références bibliographiques

Recherche bibliographique

[1 ] Renders J.M. « Algorithme génétique et réseaux de neurones ».

Hermes Science Publications, 1995.

[2]Hornik K. Stinchcombe M. et White H. «Multilayer feedforwardnetworks are universal

approximators». Neural Networks, vol. 2, n 5, pp. 359-366, 1989.

[3] J.Gognat . « Modélisation et simulation d’une commande vectorielle sous le logiciel

Matlab » stage DEES Génie électrique, Aix Marseille III, 1999.

[4] I.Salim et M.Ali. « La commande multimodèle par les réseaux de neurones artificiels

d’un bioprocédé » Mémoire de fin d’étude.UAM de Bejaia, promotion 2002.

[5] JEAN PIERRE CARRON, JEAN PAUL HAUTIER. « Modélisation et commande de

la machine asynchrone » Ed Téchnip 1995-Paris.

[6] I.abdelhakim et Y.nadjib. « La commande supervisée de la machine asynchrone à

résistance rotorique variable » Mémoire de fin d’étude.UAM de Bejaia, promotion 2003.

[7] MARC PARIZEAU. « Réseaux de neurones » université Laval, 2004.

[8] LOTFI BAGHLI . « Contribution à la commande de la machine asynchrone, utilisation

de la logique floue, des réseaux de neurones, et des algorithme génétique » Thèse doctorat,

université Henri Poincaré, Nancy-I.