algorithmes en treillis adaptatifs

17
pp. 305-321 STABILITL ~ NUML~RIQUE DE L'ALGORITHME DES MOINDRES CARRIES RL~CURS/FS 305 Algorithmes en treillis adaptatifs I tude comparative de la complexit6 num6rique, des propri6t s de convergence et des effets de quantification G6rard FAVIER * Analyse L'article prdsente de mani~re synthdtique diffdrents algorithmes de filtrage adaptatifs en treillis ; d'autre part, il effectue une comparaison thdorique des per- formances numdriques relatives ?t chacun de ces algo- rithmes en termes de nombre d' opdrations arithmdtiques dldmentaires ~ effectuer, nombre de variables d calculer, temps de convergence. Enfin, il analyse les effets de quantification dans les algorithrnes en treillis, et prdsente les principaux rdsultats permettant d'amdliorer la robustesse numdrique des algorithmes en treillis vis-d-vis des erreurs de quantification. L' effet de la quantification des donndes entrant dans le fihre et des coefficients du filtre est analysd d partir d'exemples simulds sur calcu- lateur numdrique. Une comparaison est effectude avec l'algorithme LMS pour l'identification de moddles AR. Mots d~s : Complexit6 algorithme, Convergence, Quantifi- cation signal, Etude comparative, Algorithme adaptatif, Treillis, Filtrage adaptatif, Coefficient corr61ation, R6currence, Simu- lation num6rique, Filtrage num6rique. ADAPTIVE LATTICE FILTERS A COMPARATIVE STUDY OF NUMERICAL COMPLEXITY CONVERGENCE PROPERTIES AND EFFECT OF QUANTIZATION ERRORS Abstract This paper is composed of three parts. First, a unified review of various adaptive lattice algorithms is presented. The second part is devoted to a performance comparison of these algorithms in terms of arithmetic complexity and convergence properties. Finally the effect of quantization errors is examined. The main results allowing to improve the numerical robustness of the adaptive lattice algorithms with regard to the quantiza- tion errors are presented. Some simulation results showing the effect of quant&ation on data and filter coefficients are given for the identification of an A R model. The LMS algorithm is also considered for comparison. Key words : Algorithm complexity, Convergence, Signal quantizing, Comparative study, Adaptive algorithm, Lattice, Adaptive filtering, Correlation coefficient, Recurrence, Digital simulation, Digital filtering. Sommaire I. Introduction. II. Algorithmes de calcul des coefficients PARCOR. III. Comparaison de la complexit~ numdrique des algorithmes en treillis adaptatifs. IV. Comparaison expdrimentale des performances numdriques des algorithmes en treillis adaptatifs. V. Analyse des effets de quantification dans les algorithmes en treillis adaptatifs. VI. Conclusion. Annexe. Bibliographie (23 rdf.). I. INTRODUCTION Les filtres en treillis ont fait l'objet de nombreuses publications ces derni6res ann6es tant sur le plan th6orique qu'au niveau des applications (analyse et synth6se de la parole, estimation spectrale, 6galisation de donn6es, d6convolution de signaux sismiques, traitement d'antenne, reconnaissance et d6tection de fouillis). L'utilisation d'une structure en treillis pr6sente les avantages suivants possibilit6 d'une double r6cursivit6 (ordre/temps) et d'une mise en oeuvre & l'aide de circuits VLSI, test ais6 de stabilit6, faible * LASSY - ERA 835 du CNRS, Universit6 de Nice, 41, boulevard Napol6on III, F-06041 Nice Cedex. GKECO t( Syst6mes adaptatifs )). 1/17 ANN. T~L~COMMUN., 41, n ~ 5-6, 1986

Upload: gerard-favier

Post on 25-Aug-2016

219 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Algorithmes en treillis adaptatifs

pp. 305-321

STABILITL ~ NUML~RIQUE DE L 'ALGORITHME DES M O I N D R E S CARRIES RL~CURS/FS

305

Algorithmes en treillis adaptatifs

I tude comparative de la complexit6 num6rique, des propri6t s de convergence et des effets de quantification

G6rard F A V I E R *

Analyse

L'article prdsente de mani~re synthdtique diffdrents algorithmes de filtrage adaptatifs en treillis ; d'autre part, il effectue une comparaison thdorique des per- formances numdriques relatives ?t chacun de ces algo- rithmes en termes de nombre d' opdrations arithmdtiques dldmentaires ~ effectuer, nombre de variables d calculer, temps de convergence. Enfin, il analyse les effets de quantification dans les algorithrnes en treillis, et prdsente les principaux rdsultats permettant d'amdliorer la robustesse numdrique des algorithmes en treillis vis-d-vis des erreurs de quantification. L' effet de la quantification des donndes entrant dans le fihre et des coefficients du

filtre est analysd d partir d'exemples simulds sur calcu- lateur numdrique. Une comparaison est effectude avec l'algorithme LMS pour l'identification de moddles AR.

Mots d~s : Complexit6 algorithme, Convergence, Quantifi- cation signal, Etude comparative, Algorithme adaptatif, Treillis, Filtrage adaptatif, Coefficient corr61ation, R6currence, Simu- lation num6rique, Filtrage num6rique.

A D A P T I V E L A T T I C E F I L T E R S A C O M P A R A T I V E STUDY

O F N U M E R I C A L C O M P L E X I T Y C O N V E R G E N C E P R O P E R T I E S AND E F F E C T

O F Q U A N T I Z A T I O N E R R O R S

Abstract

This paper is composed of three parts. First, a unified review of various adaptive lattice algorithms is presented. The second part is devoted to a performance comparison of these algorithms in terms of arithmetic complexity and convergence properties. Finally the effect of quantization errors is examined. The main results allowing to improve the numerical robustness of the adaptive lattice algorithms with regard to the quantiza- tion errors are presented. Some simulation results

showing the effect o f quant&ation on data and filter coefficients are given for the identification of an A R model. The LMS algorithm is also considered for comparison.

Key words : Algorithm complexity, Convergence, Signal quantizing, Comparative study, Adaptive algorithm, Lattice, Adaptive filtering, Correlation coefficient, Recurrence, Digital simulation, Digital filtering.

S o m m a i r e

I. Introduction.

II. Algorithmes de calcul des coefficients PARCOR.

I I I . Comparaison de la complexit~ numdrique des algorithmes en treillis adaptatifs.

IV. Comparaison expdrimentale des performances numdriques des algorithmes en treillis adaptatifs.

V. Analyse des effets de quantification dans les algorithmes en treillis adaptatifs.

VI. Conclusion.

Annexe.

Bibliographie (23 rdf.).

I. I N T R O D U C T I O N

Les filtres en treillis ont fait l 'objet de nombreuses publications ces derni6res ann6es tant sur le plan th6orique q u ' a u niveau des applications (analyse et synth6se de la parole, est imation spectrale, 6galisation de donn6es, d6convolut ion de signaux sismiques, t ra i tement d ' an tenne , reconnaissance et d6tection de fouillis).

L 'ut i l isat ion d ' une structure en treillis pr6sente les avantages suivants �9 possibilit6 d 'une double r6cursivit6 (ordre/ temps) et d 'une mise en oeuvre & l 'aide de circuits VLSI, test ais6 de stabilit6, faible

* LASSY - ERA 835 du CNRS, Universit6 de Nice, 41, boulevard Napol6on III, F-06041 Nice Cedex. GKECO t( Syst6mes adaptatifs )).

1/17 ANN. T~L~COMMUN., 41, n ~ 5-6, 1986

Page 2: Algorithmes en treillis adaptatifs

306 G. FAVIER. - ALGORITHMES EN TREILLIS ADAPTATIFS

zo(t) _I I~,(t) _ [ ' - ' ~ e 2 ( t ) ~ . . . . . . CN-,(t) =l [

x ( t ) - = l r 0 ( ~ ) ~ (1) ~ ( 2 ) ~ N . ~ ( t ) ~ (N)

Jr, (t) ~ L _ _ J rz(t) . . . . .

FIG. 1. ~ Filtre en treillis.

Lattice filter.

~N(t)

rN(t)

rn-1 (t-1)

FIG. 2. - - Cellule de base (n) en treillis.

Stage (n) o f the lattice filter.

Cn(t)

rn(t )

sensibilit6 aux erreurs de quantification, rapidit6 de convergence.

La structure standard d 'un filtre en treillis d'ordre N est repr6sentge b, l 'aide des figures 1 et 2.

A rioter que d'autres cellules de base peuvent &re utilis6es pour la synth&e en treillis de filtres tous- z6ros ou de filtres tous p61es monovariables (voir Makhoul, 1978; Benveniste, 1982). La cellule de base de la figure 2 est associ6e aux 6quations suivantes :

(1) ~.(t) = ~._ ~(t) - - K~,(t) 1"._ ~(t ~ 1),

(2) r.(t) = r ._ l ( t - - 1) - - K.~(t) e._~(t) .

Les coefficients K. ~ et KT,, param6tres caract6ristiques de la cellule (n), sont appel& coefficients de corr61ation partielle (partial correlation : PARCOR) direct et r&ro- grade respectivement.

D'autre part les signaux e. et r. sont appel& r6sidus direct et r&rograde respectivement.

Dans le w II nous pr&entons de mani6re synth&ique diff6rentes m&hodes de calcul des coefficients PARCOR. Puis dans le w III, nous effectuons une comparaison th6orique des performances num6riques relatives diff6rents algorithmes en treillis adaptatifs, en termes de nombre d'op6rations arithm&iques 616mentaires ~t effectuer, de nombre de variables h calculer et de temps de convergence. Dans le w IV, les performances num6riques relatives ~t certains de ces algorithmes sont compar6es exp6rimentalement b. partir de simu- lations. Dans le w V, les effets de la quantification dans les algorithmes en treillis sont analys6s et les principaux r6sultats permettant d'am61iorer la robus- tesse num6rique des algorithmes en treillis vis4t-vis des erreurs de quantification sont pr&ent&. Enfin, dans le w VI, nous tirons la conclusion.

II. A L G O R I T H M E S DE CALCUL DES COEFFICIENTS PARCOR

Nous d6crivons dans ce paragraphe diff6rentes m6thodes permettant de calculer les coefficients PARCOR

K. ~ et K~. Deux classes de m&hodes peuvent &re utilis6es :

* M6thodes globales ou non r6cursives consistant estimer des fonctions de corr61ation b, partir d 'un

bloc de donn6es (w 11.1.).

* M&hodes r6cursives par rapport au temps qui, comme leur nom l'indique, consistent ~t r6ajuster les coefficients PARCOR ~ chaque instant d'gchantillon- nage, et qui correspondent aux algorithmes en treillis adaptatifs (w I1.2.).

I L l . M ~ t h o d e s g l o b a l e s .

Dans le cas oO le processus x(t) est suppos6 scalaire, stationnaire et de moyenne nulle, les coefficients K. ~ et KT, peuvent &re pris 6gaux, et diff6rentes m&hodes non r6cursives ont 6t6 propos6es pour le calcul de ces coefficients. Nous rappelons ci-apr6s trois de ces m&hodes.

�9 Mdthode directe.

Les coefficients VARCOR sont choisis de fagon b, minimiser la variance du r6sidu direct. Soit :

(3) min E[r -~ E[, . ( t ) r ._ l(t - - 1)] = 0. Kg

Nous avons alors :

(4) K. ~ = K," = E[z._ 1(0 r,_ l ( t - - l)]/E[r 2_ l ( t - - 1)].

�9 Mdthode rdtrograde.

Les coefficients VARCOR sont choisis de fagon b, minimiser la variance du r6sidu r6trograde. Soit �9

(5) min E[r2(t)] r162 E[r.(t) r t(t)] = 0.

D'ofa :

(6) K~ = K, ~ = E[~,_l( t) r , _ l ( t - 1)]/E[e2,-~(t)].

�9 M & h o d e de la moyenne harmonique [Burg, 1975].

Les coefficients PARCOR sont alors obtenus ~t partir de la minimisation de la somme des 6nergies des r&idus direct et r&rograde. Soit :

(7) K. ~ = K." = 2 El%_ ~(t) r ,_ a(t - - 1)]/ (E[r + E [ r ] _ l ( t - 1)]).

Cette valeur est 6gale ~t la moyenne harmonique des deux valeurs pr6c6dentes (4) et (6).

Voir [Makhoul, 1977] pour d'autres formulations globales des coefficients PARCOR. A noter que, pour un signal x(t) scalaire et stationnaire, et si les coef f i -

ANN. T~L~COMMUN., 41, n ~ 5-6, 1986 2/17

Page 3: Algorithmes en treillis adaptatifs

G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS

cients K.* et K~ sont fix6s, nous avons alors :

(8) E[r ---- E [ r 2 ( t - 1)], 1 ~< n ~< N,

et par suite les diff6rentes formula t ions pr6sent6es pr6c6demment sont 6quivalentes.

II.2. M6thodes r4cursives.

Dans la p lupar t des appl ica t ions de t ra i tement du signal, l 'entr6e x(t) du filtre ne pouvan t &re suppos6e stat ionnaire, il est fai t appel ~ des filtres en treillis adaptatifs , c'est-~.-dire p o u r lesquels les coefficients PARCOR sont r6ajust6s b. chaque instant. Deux types de m6thodes r6cursives on t 6t6 d6velopp4s :

- - Mdthodes sous -op t imales obtenues :

�9 soit ~ par t i r des fo rmules non r6cursives,

�9 soit en util isant l ' a lgor i thme des moindres carr6s ou LMS (treillis avec gradient) ,

�9 soit en uti l isant l ' a lgor i thme du signe.

- - Mdthodes op t imales cor respondan t A la minimi- sat ion d 'un crit6re du type moindres carr4s :

�9 a lgor i thme avec fen~tre ant6rieure,

�9 a lgori thme de covar iance ~ m4moire croissante,

�9 a lgori thme de covar iance sur fenStre glissante.

Ces m6thodes co r r e sponden t aux filtres en treillis adaptat ifs bas4s sur les moindres carr4s.

Nous d6crivons ci-apr6s ces diff6rentes m6thodes r6cursives.

IL2.1. M4thodes sous-optimales.

a) Utilisation des f o r m u l e s non rdcursives.

Cette premi6re so lu t ion consiste ~ utiliser une esti- ma t ion r6cursive des fonc t ions de corr61ation inter- venan t dans les formules (4), (6) et (7).

- - Solut ion avec cellules en treillis ~ 2 coefficients :

(9) K.'(t) = ~[ r r ._ l ( t - - 1)]t[

i~[r 2- ti t)], ~ ~.( t ) /R ' . ( t ) ,

(10) K.'(t) = l~[e~_l(t) r . _x ( t ~ 1)]t/ l~[r 2_ x(t - - 1)], & b'.(t)/RT,(t),

oh g [ . ] t repr6sente une va leur estim6e ~t l ' instant t de E[ . ] .

Une est imat ion r4cursive des quanti t6s ~ , R~ et RT, peut ~tre ob tenue A l ' a ide des formules classiques suivantes :

(11) ~n~(t) ----- ?,3~(t-- 1) + (1 - - X) % _ ~ ( t - - 1) r ._ ~(t - - 2),

(12) R.'(t) = X R . * ( t - 1) + (1 - - ;~) r 1),

(13) R~(t) ----- XR.r(t - - 1) + (1 - - X) r2_x(t - - 2),

oh X est un fac teur d ' oub l i f ixant la longueur de la

307

fen~tre sur laquelle sont estim6es les fonct ions de corr41ation et pe rmet t an t ainsi de suivre d '6ventuelles non-s ta t ionnar i t6s in te rvenant dans le signal x(t). (0 < X ~< 1).

A par t i r des expressions (9), (11) et (12), nous d6duisons :

(14) K]( t + 1) & 8.~(t + 1)]R.*(t + 1),

(15) = [XR~(t)K~(t) + ( 1 - - X ) e . _ l ( t ) x

r . _ l ( t - 1)]/R.*(t + 1),

(16) = K~(t) + (1 - - X) ~ ._ l ( t ) x

Jr._ l( t - - 1) - - K~(t) r t(t)]/R~.(t + 1),

ou encore, compte tenu de l ' 6qua t ion (2) :

(17)

K.fft + 1) = K.'(t) + [(1 - - X)/R' . ( t + 1)] r

De la m~me faqon, en uti l isant les 4quat ions (1), (10), (11) et (13), nous ob tenons :

(18) KT,(t + 1) = K.'(t) + [(1 - - X)/

R.~(t + 1)] r . _ t ( t - - 1) r

En r6sum6, l ' a lgor i thme adap ta t i f est consti tu6 des 6quat ions (12)-(13) et (17)-(18).

- - So lu t ion avec cellules en treillis dt 1 coeff icient :

Par un calcul analogue au pr6c6dent et appliqu6 la fo rmule globale (7), nous ob tenons l ' a lgor i thme

adap ta t i f suivant :

(19) R~(t + 1) = XR.(t) + ( 1 - - X ) X [r 1(0 + r2_z( t - - 1)],

(20) K ~ ( t + 1) = K. ( t ) + [ ( 1 - - X)/R.(t + 1)] x

[ r r . ( t ) + r ._ l(t - - 1) r

(21) avec : K.~(t) = K.'(t) = K. ( t ) .

b) Util isation de l ' a lgor i thme LMS.

- - So lu t ion avec cellules en treillis d* 2 coefficients.

N o u s avons dans ce cas :

(22) K.~(t + 1) = K.*(t) + v ~ ( ~ ~ ( t ) ) ,

(23) Kg(t + 1) ----- K.~(t) + ~. '(-- ~g(t)),

oh ^* ^ r V. et V. repr6sentent des valeurs estim4es des gradients v~ et v~ relatifs aux crit6res minimis6s pou r le calcul de K~ et K~, dans les m&hodes r&rogradr et directe respect ivement . (Voir (3) et (5 ) ) . Soit :

(24) v~(t) ---- - - 2 E[r x(t) r .(t)],

(25) v~(t) = - - 2 E[r ._ x(t - - 1) r

L ' a l go r i t hme LMS est ob tenu en p r enan t comme valeurs estim6es ~.* et ~." les valeurs instantan6es, c 'est-~-dire :

(26) ~.*(t) = ~ 2 r a(t) r . ( t) ,

(27) ~.~(t) = - - 21"._ t ( t - - 1) r

D ' o h les formules de r6actual isa t ion suivantes pou r le calcul des coefficients PARCOR :

3/17 ANN. T~L~COMMUN., 41, n ~ 5-6, 1986

Page 4: Algorithmes en treillis adaptatifs

308 G. FAVIER. - ALGORITHMES EN TREILLIS ADAPTATIFS

(28) K~(t + 1) -- K](t) -+- bt~ e._ a(t) r.(t),

(29) Kg(t + 1) = K;,(t) + I~ r._ l(t - - 1) e.(t).

Algorithme LMS Version non normalis6e ~t 2 coefficients

Les param6tres scalaires bt.~(--- - 2 v. ~) et ~ ' ( = 2 v.'), appel6s taux de convergence, sont des cons(antes positives qui permettent de r6gler la stabilit6 et la vitesse d 'adaptat ion de l 'algorithme. Plus grandes son( les valeurs de ces cons(antes, plus rapide sera la convergence mais aussi plus sensible au bruit sera l 'algorithme. A noter que ces cons(antes peuvent &re r6gl6es de mani6re ind6pendante pour chaque &age (n) du filtre.

Les algorithmes en treillis adaptatifs utilisant l 'algorithme LMS on( 6t6 introduits par [Griffiths, 1977]. Une version normalis6e de l 'algorithme (28)-(29) peut 6(re obtenue en choisissant les taux de convergence ~z~ et ~t. ~ inversement proportionnels h l'6nergie des r6sidus se trouvant ~t l'entr6e de la cellule n. Nous obtenons alors l 'algorithme suivant :

(30) K,*(t + 1) = K.~(t) + ~ ~_~(t) r . ( t ) lR~( t + I),

(31) K.'(t + 1) = K~(t) + ~" r . _ x ( t - - 1) ~.(t)[ R.'(t + 1),

(32) R.~(t + 1) = XR~(t) + (1 - - X) e2_~(t),

(33) R~(t + 1) = XR,~(t) + (1 - - X) 2 r ~ _ a ( t - 1).

Algorithme LMS Version normalis6e h 2 coefficients

Cette normalisation 6tant effectu6e de mani6re ind6- pendante pour chaque cellule du ill(re, il en r6sulte un taux de convergence global plus rapide que pour l 'algorithme LMS appliqu6 au ill(re transverse.

Nous remarquons qu 'en choisissant m~ = 0~. = 1 - - X, cette version normalis6e ~t deux coefficients devient identique ~t l 'algorithme d6fini ~t l 'aide des 6quations (12)-(13) et (17)-(18).

- - Solution avec cellules en treillis d 1 coefficient ."

Une version simplifi6e/t un seul coefficient PARCOR par cellule peut ~tre d6riv6e de l 'algorithme de Burg. Nous avons alors :

( 3 4 ) K ~ ( t ) ---- K~,(t) = K n ( t ) ,

avec :

(35) K.( t + 1) = K~(t) + tz.[e~_i(t)r~(t) + r n _ a ( t - 1) ,~(t)].

Algofithme LMS Version non normalis6e /t 1 coefficient

D'autre part, la version normalis6e correspondante est d6finie /t l 'aide des 6qua(ions suivantes :

(36) K.(t + 1) = K.(t) + ct.[.._x(t) r.(t) +

r . _ l ( t - 1) , . ( t ) ] /R , ( t + 1),

(37) R.(t + 1) = XR~(t) + ( l - - X ) [e2_x(t) + r2_ l ( t - - 1)].

A noter que pour ~. = 1 - - ?~, nous retrouvons l 'algorithme h 1 coefficient d6crit h l 'aide des 6qua- tions (19)-(20). L'algorithme normalis6 (36)-(37) a 6t6 propos6 par [Griffiths, 1978]. Les propri6t6s de convergence de cet algorithme on( 6t6 6tudi6es par [Griffiths, Medaugh, 1979].

Dans le w IV.1. nous indiquons le domaine des valeurs admissibles pour les taux de convergence (tz. ' , W.0, (~.~, ~.'), ~z. et ~ . .

c) Utilisation de l 'algorithme du signe.

En utilisant l 'algorithme du signe, les versions normalis6es ~t 2 coefficients et ~ 1 coefficient se simpli- fient comme suit :

(38) K.~(t + 1) = K~(t) + 0~ ~(r.(t)) ~._ dt)/p~.(t + 1),

(39) K~(t + 1) = KT,(t) + ~." tr(..(t)) • r . _ d t - 1)/pg(t + 1),

(40) p.*(t + 1) = Z p](t) + (1 - - ?,)]en-l(t)],

(41) p~(t + 1) = X p;,(t) + (1 - - Z) Ir._ ~ ( t - 1) I. Algorithme du signe

Version normalis6e ~t 2 coefficients

o6 :

(42)

et :

(43)

avec

(44)

(45)

• ( x ) = t + 1 si x > ~ 0 , ( - - 1 si x < 0 ,

K.~(t) = K~(t) = K.(t),

K. ( t + 1) = Kn(t) + %[~r(r.(t)} e._l( t) ,4- cr(r r._ l ( t - 1)]/O.(t + 1),

p.(t -[- 1) = ;k p.(t) + (1 - - Z) []r +

Ir._l(t- i)1]. Algorithme du signe

Version normalis6e ~t 1 coefficient

Cette version normalis6e ~t 1 coefficient a 6t6 propos6e r6cemment par [Youn, Mathews, Cho, 1985].

II.2.2. M6thodes optimales.

Nous pr6sentons dans ce paragraphe diff6rentes m6thodes optimales pour la r6actualisation des coefficients du filtre en treillis repr6sent6 ~t l 'aide des figures 1 et 2. Ces m6thodes sont bas6es sur la mini- misation de crit6res du type moindres carr6s (expo- nentiellement) pond6r6s portant sur les erreurs de pr6diction directe et r6trograde d'ordre n du processus x(x), c'est-/t-dire :

t

;V-" ~2(t, -r) et ~] ;r r](t, "r), (46)

o~ :

(47)

(48)

~.(t, -r) A x('r) + ~ aT(t) x(v - - i), l = l

rn(t , "r) ~ xl'r - - n ) + ~ b,~+l-l(t) x(v - - i + 1), 1 = 1

ANN. TI~LI~COMMUN,, 41, n ~ 5-6, 1986 4/17

Page 5: Algorithmes en treillis adaptatifs

G. FAVIER. - ALGORITHMES EN TREILLIS ADAPTATIFS 309

le processus x(v) 6tant suppos6 &re observ6 sur l 'intervalle [0, T].

r -r) jr,(t, v)] peut s ' interpr&er comme l 'erreur de pr6diction directe [r6trograde] de x(-r) [x('r - - n)]

partir des n 6chantillons pr6c6dents [futurs], et obtenue en utilisant les coefficients aT(t) [bT(t)] du pr6dicteur direct [r&rograde] qui ont 6t6 d6termin6s fi l 'aide des donn6es x(-c) pour v ~ [0, t].

Divers algorithmes en treillis fi double r6cursivit6 (ordre/temps) ont 6t6 d6velopp6s ~ partir des choix suivants �9

-r~ = n , t = T : algorithme de covariance avec m6moire croissante,

-r~ = T ~ 1, t = T : algorithme de covariance avec fen&re glissante,

"r~ ----- 0 , t = T : algorithme avec fen~tre ant6- rieure.

Dans ce qui suit, nous allons nous int6resser plus particuli6rement fi trois versions d'algorithmes avec fen&re ant6rieure :

version utilisant des erreurs de pr6diction a posteriori et originellement introduite par [Morf, Lee, Nicholls, Vieira, 1977] et [Morf, Lee, 1979]. Voir aussi [Shensa, 1981];

- - v e r s i o n utilisant des erreurs de pr6diction a priori, propos6e par [Satorius, Pack, 1981] ;

- - version a posteriori normalis6e d6velopp6e par [Lee, Morf, 1980].

a) Versions a posteriori e t a priori non normalisdes.

Ces algorithmes, pr6sent6s de mani6re d6taill6e

(49)

(50)

avec :

(51)

en Annexe fi l 'a ide d 'une approche alg6brique [Good- win, Sin, 1984], sont r6sum6s dans le tableau I. La version a posteriori est const i tute des 6quations (A-30)- (A-33), (A-41), (A-52), (A-55) et (A-65), les erreurs de pr6diction a priori ayant 6t6 remplac6es par leurs expressions fonct ion des erreurs a posteriori et d6duites des relations (A-57)-(A-58). La version a priori est obtenue a part ir des 6quations (A-41), (A-43)-(A-44), (A-46)-(A-47), (A-52), (A-55) et (A-65), les erreurs a posteriori ayant 6t6 ici remplac6es par leurs expres- sions (A-57)-(A-58).

- - I1 est it noter que dans le eas stationnaire (avee ;~ = 1), les r6sidus r .( t) sont or thogonaux lorsque t ---~ ~o.

D 'au t re par t :

1 lira - S.~(t) ----- R." = E[~.(t)],

t --*- OO t

1 lim - S g ( t ) = R~ = E[r~(t)], ~ --* OO t

R~ = RI .

- - La valeur constante S servant ~ initialiser les quantit6s S~ et S~, est utilis6e afin d'6viter des pro- blames de singularit6 (division par des nombres tr6s petits) pouvant survenir si le signal x(t) a des valeurs voisines de z6ro au cours des premi6res it6rations de l 'algorithme.

Le tableau I met bien en 6vidence le lien qui existe entre les deux versions non normalis6es de l 'a lgori thme avec fen~tre ant6rieure. Les relations (A-57) et (A-58) liant les erreurs de pr6diction a priori et a posteriori

TABL. I. - - Algorithmes en treillis du type moindres carr6s avec fen~tre ant6rieure - Versions non normalis6es.

Version a posteriori Version a priori

Co(t) ---- ro( t ) = x( t )

y _ ~ ( t ) = 1, y . ( - - 1 ) = 1

S~( - - 1) = S t ( - - 1) = S

r . ( - - 1) ---- 8 . ( - - 1) ----- 0

INITIALISATION. t = 0 , 1 , 2 . . . .

S~(t) --~ S[(t) ---- 9~ S [ ( t - - 1) %- x2(t)

s~(-- 1) = s

~o(t) ----- ro(t ) = x ( t )

V - l ( t ) = 1, V . ( - - 1) = 1

S ~ ( - - 1) ---- S ~ ( - - 2 ) = S ~ ( - - l ) = S

7 . ( - - 1) -~- 8 . ( - - 1) = 0

I n = 1, min(N, t)

8.(t) : XS.( t-- 1) %- r._ , ( t - - 1) r , ( t ) ly ._ 2 ( t - - 1) ~.(t)

r._~(t)/S._x(t) . : n _ l ( t ) = .i, 2 ( t ) _ _ 2 r

K~(t) = 8.(t)[S~_a(t) K.'( t ) = 8 . ( t ) /S~_ x(t - - 1)

r = z . _ x(t) - - K~(t) r ._ l ( t - - 1)

r . ( t ) : r . - l ( t - 1 ) - K~(t) r

S.~(t) = Z S ~ ( t - 1) + e2.(t)ly._a(t- 1)

S~(t) = Z S ~ ( t - 1) %- r2.(t)/y._x(t)

v. -~( t )

~.~(t)

Kg(t)

-~.(t)

?.(t)

S~(t)

s.'(t)

= ~.~.( t-- 1) + y . _ 2 ( t - - 1) ~ ' ._ l ( t - - 1)~._1(t)

: V n - 2 ( t ) - - 2 r , _ a(t) y2_ 2(t)/S~_ a(t)

----- 8 . ( t - 1 ) / S ~ _ a ( t - 1)

---- 3 . ( t - 1)[S~_ x ( t - 2)

: 1".-t(t - - 1) - - K ~ ( t ) -~ ._ x ( t )

= XS~(t - - 1) %- ~](t) Yn-l(t - - 1)

---- XS,~( t - i) %- ~ ] ( t ) y . _ ~(t)

5/17 ANN. T~L~COMMUN., 41, n ~ 5-6, 1986

Page 6: Algorithmes en treillis adaptatifs

310 G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS

ont 6t6 mises en 6vidence p a r [Samson , 1982] 5. par t i r d ' u n e a p p r o c h e bas6e sur les op6ra teurs de project ion. Q u a n t 5. la mani6re d ' o b t e n i r les re la t ions (A-43)- (A-44) et (A-46)-(A-47) qui condu i sen t au filtre en treillis fa i sant in te rveni r les er reurs de pr6dict ion a priori , elle nous semble originale. A no te r enfin que la vers ion a pr ior i p e u t ~tre utilis6e dans les 6galiseurs q u a n d la va leu r de l ' en t r6e de r6f6rence est inconnue au n iveau du r6cepteur (voir [Satorius, Pack , 1981]).

b) Version a posteriori normalisde.

N o u s d6crivons m a i n t e n a n t une fo rme normalis6e de la vers ion a poster ior i . Cet te f o r m e est ob tenue en no rma l i s an t les er reurs de pr6dic t ion a poster ior i p a r r a p p o r t 5. leur 6nergie et p a r r a p p o r t 5. la var iable auxil iaire y,( t) . Les e r reurs de pr6dic t ion ainsi nor- malis6es sont d6finies p a r :

(52) ~.(t)_~ e.(t)l[S'.(t) T . - t ( t - - 1)] z/2,

(53) ?.(t) ~ r.(t)l[ST,(t) T . - t(t)] *t2.

D ' a u t r e p a r t on in t rodui t un coefficient de corr61ation part iel le normal is6 :

(54) o.(t) ~ 3.( t) /[S. '_ l ( t ) S. ~_ a(t - - 1)] xt2.

Les r6currences t empore l les relat ives 5. S.~(t)et S.'(t) nous d o n n e n t :

X S~(t ~ 1) (55) S~(t) - - 1 - - $ 2 ( t ) ,

X S ~ ( t - 1) (56) - - 1 - - ~2(t).

ST,(t)

D ' a u t r e par t , les r6currences sur l ' o rd re (A-28)- (A-29), (A-41) et sur le t e m p s (A-70), relatives 5. S~(t), S~(t) et y.(t), nous d o n n e n t :

S~(t) S ' ( t ) (57) -- - - I - - p~(t),

S. ~_ , ( t ) S,~_ l ( t - - I )

"~n(t) (58) - - - - 1 - - ~2(t),

Y . - l ( t )

y.f t ) (59) - - 1 - - ~2(t).

Y . - l( t - - 1)

En r e p o r t a n t la re la t ion (A-65) dans la d6finition (54) et en ut i l isant les re la t ions (A-57), (55) et (56), nous ob tenons :

(60) p.ft) = [1 - - ' ~ 2 _ t ( t ) l l m [1 - - ~ ] - a ( t - - 1)1 at2 •

p n f t - 1) q- r n - a ( t - 1) ~._ l(t) .

D ' a u t r e par t , 5. par t i r des r6currences (A-30) et (A-32) et en t enan t c o m p t e des re la t ions (57)-(59), il est facile de d6duire les 6qua t ions de base du filtre en treillis relat ives 5. la vers ion a pos ter ior i normalis6e. L ' e n s e m b l e de ces 6quat ions est r6sum6 darts le t ab leau II .

Cette vers ion normal i s6e qui est d6crite 5. l ' a ide de trois 6quat ions r6currentes seulement , pr6sente en ou t re l ' a v a n t a g e que tou tes les var iables in te rvenant dans l ' a lgo r i thme sont born6es en modu le pa r 1 ; pa r suite, cet a lgor i thme peu t 0tre mis en oeuvre en virgule fixe.

Pou r compl6 te r la p r6sen ta t ion des a lgor i thmes, nous effectuons une c o m p a r a i s o n de l ' a lgo r i thme avec fen&re ant6r ieure ut i l i sant l ' e r r eu r de pr6dict ion a poster ior i avec la m 6 t h o d e sous -op t ima le pr6sent6e au w II .2.1. et bas6e sur l 'u t i l i sa t ion des fo rmules n o n r6cursives.

En c o m p a r a n t les 6quat ions du t ab leau I avec les 6quat ions (9)-(13) p o u r le calcul des gains K~(t) et K~(t), nous p o u v o n s d6duire les cor respondances pr6sent6es dans le t ab l eau I I bis :

TABL. I I . - - Algor i thme en treillis du type moindres carr6s avec fen0tre ant6rieure - Vers ion a poster ior i normalis6e.

INITIALISATION

r . - l ( - - 1 ) = p . ( - - 1 ) = 0 , S o ( - - 1 ) = S

Pour t -= O, 1, 2, ...

So(t) = X S o ( t - 1) + x2(t)

To(t) ----- ~o(t) = x(t)lS1o/2(t)

I n ---- 1, min(N, t) l

p.(t) = [1 - - $2_x(t)]1t2 [1 - - ~ 2 _ a ( t - - 1)] a/2 p.(t - - 1) + $ . -1 ( t ) ~ . - t ( t - - 1)

~ . - a(t) - - p.(t) ~._ l( t - - 1) ~ . ( t ) = [1 - - p2(t)] 1j2 [1 - - r._'2 x(t - - 1)] l/2

~ . - l ( t - - 1) - - p . ( t ) ~ . _ ~(t) ~ . ( t ) = [1 - - p2(t)]l/2 [1 - - ~ 2 t( t)] l t2

ANN. T~L~COMMUN., 41, n ~ 5-6, 1986 6/17

Page 7: Algorithmes en treillis adaptatifs

G. FAVIER. - A L G O R I T H M E S E N T R E I L L I S A D A P T A T I F S

TABL. II bis.

Version h posteriori non normaliS6e M6thode sous-optimale

~.(t) S~_ t(t)

S ~ _ l ( t - 1)

~._,(t) r ._ ~(t - - 1)

zn(t)

~.*(t)

R~(t)

R~,( t )

Zn-ift- 1)

r ._ l(t - - 2)

1

311

Les deux algorithmes sont alors rigoureusement identiques ~t condit ion de supprimer le gain (1 - - 90 apparaissant dans les formules (11)-(13).

Nous pouvons donc conclure que la m6thode sous- optimale se distingue de la m6thode optimale �9

par l ' in t roduct ion d ' un retard temporel au niveau des signaux e, et r , pris en compte dans le calcul des fonctions de corr61ation ~,', R, c et RT,;

- - par l 'absence de la variable y , ( = 1). A noter que c'est de la pr6sence de cette variable dans la m6thode des moindres carr6s que r6sulte une meilleure capacit6 d 'adapta t ion de l 'algorithme vis-a-vis de variations des caract6ristiques statistiques du signal d'entr6e.

IH. COMPARAISON DE LA COMPLEXITI~ NUMI~RIQUE

DES A L G O R I T H M E S EN TREILLIS ADAPTATIFS

Dans le tableau III nous indiquons de mani6re comparative les performances num6riques relatives

aux diff6rents algorithmes en treillis adaptatifs pr6- sent6s dans le w II. Ces performances sont analys6es en termes de :

- - nombre de variables ~t calculer et ~t stocker,

nombre d 'op6rations arithm&iques 616mentaires ~t effectuer b. chaque it6ration temporelle.

Le calcul du nombre d 'op6rat ions arithm6tiques 616mentaires a 6t6 effectu6 en supposant que les constantes 7., ~ , ~t.', ~t., ct. ~ , ~ et ~. sont prises 6gales A des puissances de 2, ce qui permet de rempla- cer les multiplications par ces constantes par de simples d6calages de bits.

IV. C O M P A R A I S O N EXPI~RIMENTALE DES P E R F O R M A N C E S NUMI~RIQUES

DES A L G O R I T H M E S EN T R E I L L I S ADAPTATIFS

L 'obje t de ce paragraphe est de pr6senter quelques r6sultats num6riques relatifs h une 6tude comparative du compor tement de diff6rents algorithmes adaptatifs

TABL. III. - - Complexit6 num6rique des algorithmes en treillis adaptatifs.

Algorithmes R~ R 2 GT 1

Nombre de variables 6N 7N 3 N

Nombre d 'op6rat ions 5N 5N 4 N + ,

• / 6N 7N 4 N

G T N 1 G T 2 G T N 2 SN 1 SN 2 M C T P

4 N 4 N 6N 4 N 6N 10N

6 N 4 N 6N 6 N 6N 6 N

7N 4 N 8N 3 N 4 N I 0 N

MCTPN

3N

3N

12N

3N

Rt et R2 ." M6thodes sous-optimales ~t 1 et 2 coefficients, ddduites des formules non r6cursives. GT1 et GT2 : Algorithmes LMS h 1 et 2 coefficients. Versions non normalis6es. GTN l et GTN 2 ." Algorithmes LMS ~t 1 et 2 coefficients. Versions normalis6es. SN1 et SN 2 : Algorithmes du signe ~ 1 et 2 coefficients. MCTP : Algorithme des moindres carr6s avec fen~tre ant6rieure. Version ~ posteriori non normalis6e. MCTPN " Algorithme des moindres carr6s avec fen&re ant~rieure. Version ~t posteriori normalis~e.

7/17 ANN. TI~LI~COMMUN., 41, n ~ 5-6, 1986

Page 8: Algorithmes en treillis adaptatifs

312

(LMS, G T N 1 , G T N 2 , MCTP, MCTPN) vis-a-vis de :

l ' influence du taux de convergence dans les algori thmes de type gradient (LMS, GTN2) ,

- - l ' influence du choix de l 'o rdre N pou r l ' identi- fication (LMS, G T N 2 , MCTP) ;

- - l ' influence de la valeur initiale S dans l 'algo- r i thme MCTP ;

la vitesse de convergence (LMS, GTN 1 , G T N 2 ,

MCTP, MCTPN) ,

- - l 'effet des erreurs de quantification (LMS, GTN2, MCTP, MCTPN).

Nous rappor tons ci-apr6s des rdsultats de simulation obtenus avec 1'exemple considdrd par [Friedlander, 1982]. Les donndes x(t) sont gdndrdes h par t i r du passage d ' un bruit blanc de moyenne nulle et de variance unitde ~t travers un filtre tous p61es de fonction de t ransfert 1]A(z), avec :

A(z) = 1 - - 1,6 z - I + 0,95 Z--2,

Les crit6res de compara i son consid6r6s sont de deux types :

d 'une par t l '6volution temporelle de l '6nergie r6siduelle S~v(t), c 'est-~-dire de l '6nergie du I6sidu direct en sortie du filtre ,

- - d ' a u t r e par t l '6volution temporelle des para- m6tres estim6s a~ du mod61e AR, en utilisant les rela- tions de passage qui existent entre les coefficients a~ et les coefficients PARCOR k~ du filtre en treillis associ6.

Remarque.

Les 6quations de l 'a lgor i thme LMS pour l'identifi-

G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS

cation d 'un mod61e AR d 'o rd re N sont rappel6es dans le tableau IV.

IV.1 . E t u d e de l ' in f luence du taux de c o n v e r g e n c e et du c h o i x de l 'ordre iV.

Nous comparons ici le compor tement des algo- rithmes :

�9 LMS d6crit dans le tableau IV ;

�9 GTN2 d6crit ~t l 'a ide des 6quations (1)-(2), (30)- (33), avec : ~t~ ---- ~ = 9, mais sans le facteur (1 - - Z) dans (32) et (33).

Le tableau V renferme les param6tres caract6ris- tiques (~, ~3, N) des essais illustr6s ~ l 'aide des figures 3 ~ 7 .

A part ir de ces figures, nous pouvons conclure que �9

- - les algori thmes en treillis (GTN2, MCTP) identi- fient bien l ' o rdre du mod61e (coefficient a3 estim6 tr6s voisin de z6ro), ce qui n 'es t pas le cas pour l 'algori thme LMS qui identifie un coefficient aa non nul, et par suite un mod61e non minimal.

A noter cependant que le mod6le identifi6 est bien repr6sentatif du signal x(t) comme on l ' a v6rifi6 en calculant la fonct ion d'autocorr61ation associ6e tt ce mod61e identifi6 ;

l ' a lgor i thme LMS est beaucoup plus sensible au choix du taux de convergence que l 'a lgori thme GTN 2 . La vitesse de convergence cro~t avec la valeur de ~z et de ~.

TABL. I V . - - Algorithme LMS.

Pour t = 0 , 1 ,2 . . . .

Initialisation : a~(-- l) = 0

Choix de ~. et de N

: N e(t) = x(t) + 5] al(t - - 1) x(t - - i)

l = l

i = 1, ..., N a,(t) ---- a,(t - - 1) - - [zx(t - - i) r

Fig. 3a

Trac6 d~

Algo. LMS

~z, ~ 10 -4

N 2

TABL. V. - - Etude de l ' influence du taux de convergence et du choix de l 'ordre N : tableau r6capitulatif des figures 3 h 7.

3C

dl

LMS

I 0 - 3

2

3d

LMS

5 . 1 0 - 3

3b

dl

LMS

5.10 -4

2

4 a

LMS

10-a

3

4b

a2

LMS

10-3

3

4c

~3

LMS

10-3

3

5 a

d~

GTN2

0.5

3

5b

GTN 2

1

3

5c

GTN 2

5

3

6a 6b 6c 7a 7b

fil ~2 ~3 dl fi2

GTN 2 GTN 2 GTN2 MCTP MCTP

10 1 1

3 3 3 3 3

M~

ANN. T~L~COMMUN., 41, n ~ 5-6, 1986 8/17

Page 9: Algorithmes en treillis adaptatifs

G. FAVIER. - ALGORITHMES E N TREILLIS A D A P T A T I F S 3 1 3

2

1

0

- 1

0 • 100 150 200

1(30 150 200 0 I I I I I Nb. it.

Nb. it, - 1

- 2 - 2 J C

a

2 &~ 2 A~

Nb. it, , it.

_ - 1

- 2 a - 2 J ~111 1"~11 "

d

FIG. 3. - - Algori thrne LMS. Etude de l ' influence du taux de convergence ~t. Nb . it. repr6sente le hombre d ' i t&at ions , c 'est-h-dire le n o m b r e de p6riodes d '6chant i l lonnage.

a) trac6 du parambtre dz pour ~t = 10 -4, b) trac6 du param&re dz pour Iz = 5.10-4, c) trac6 du param~tre at pou r tz = 10 -a, d ) trac6 du param~tre dz pour iJ- = 5-10-a.

La valeur exacte du parambtre a z e s t 6galement tracb, e sur ces figures.

FIG. 3. - - LMS algorithm. Influence o f the convergence rate ~t.

2 AI A~ 2

Nb. i t . 0 I t I

100 150 2~0 2~0 0

- 2 a - 2

2 It=

'1 0 _ I 0 5O

- 1

- 2

Nb. i t . I I ~ �9

100 150 200 250

=t ' , - - - - ~ Nb. it .

- 1 .~ 0 50 100 150 200 250

- 2 J C

Fzo. 4. ~ Algor i thme L M S .

Etude de l ' inf luence du choix de l ' o rd re N pour ~z = 10 -~. a) trac~ du pa ram6t re estim6 d z , b) trac~ du pa ram6t re estim~ da , c) trac~ c[u pa ram6t re estim~ ~3.

L M S algorithm. Influence o f the order selection (N) for ~t = 10 -s.

Nous donnons ci-apr6s des conditions de conver- gence p o u r l e s a l g o r i t h m e s GT 1 , GT 2 , GTN 1 e t GTN 2

pr6sent6s dans le w II.2.1.b. Cette &ude th6orique a pour but de d&errniner le domaine admissible des coefficients (~t~, ~.'), (0c~, 0c~,), ~. et 0c., relatifs ~ la cellule n du filtre en treillis, et caract6ristiques des algorithmes G T 2 , G T N 2 , GTI. e t G T N 1 respectivement. Nous supposons que les signaux e.(t) et r.(t) inter- venant dans le filtre sont stationnaires.

Nb. it. I I I !

50 100 150 2 oo

2 &l

o ~ 5,0 ,~o ,~o' ' - 1

_ 2 j l t , , ~ , ~ - - w - - - ~ , ~ - -

b

2 A~ 'li Nb. it. 0 U I I I I

I I J ~ 5o loo 15o 1 lVfll ,fl

r

FIG. 5. - - Algor i thme GTN~. E tude de l ' inf luence du taux de convergence [3.

a) trac~ du param6t re estim6 al pou r 13 = 0,5, b) trac6 du pa ram6t re estim~ dl pour ~ = 5, c) trac~ du param~t re estim~ al p o u r ~ = 10.

C, TN 2 algorithm. Influence o f the convergence rate ~.

Pour l'~tude de l'algorithme GT 2 , nous supposons de plus que les coefficients K. ~ etK,~ sont fix6s et choisis de mani6re 5. minimiser E[r2(t)] et E[~2(t)] respecti- vement. A partir des 6quations (I), (2), il est facile de d6duire que ."

9/17 ANN. TI~L~COMMUN., 41, n ~ 5-6, 1986

Page 10: Algorithmes en treillis adaptatifs

314 G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS

2 &~

1

I ! 0 , ~ ) 50 100

- 1

- 2 - 1

I I

Nb. it, I I

150 200

2 &z 1

Nb. it,

0 JO 100 150 200 - I

- 2 b

2 a~ 1

1 -{0 ~ Nb. it.

0 t I I __ i ,,, 50 100 150' 200 - 1

2 r

F I G . 6 . ~ Algori thme G T N ~ .

Etude de l 'influence du choix de l 'ordre N pour ~ = 1. a) trac6 du param6tre estim6 d~, b) trac6 du param6tre estim6 a~, c) trac6 du param6tre estim6 da.

GTN~, algorithm. Influence o f the order selection (N) for ~ = 1.

2

1

0

- 1

- 2

Nb. it.

511 100

0 l 0 5O

- 2 -

Nb. I1. 1 I I

100 150 200

-1 0

I~a.lt

100 150 200

F~G. 7. ~ Algori thme MCTP. Etude de l ' influence du choix de l 'ordre N.

a) trac6 du param6tre estim6 dx, b) trac6 du param6tre estim6 ~ , c) trac6 du param~tre estim6 ~ .

MCTP algorithm. Influence o f the order selection (N).

E[r~(t)] (61) V~(t)

E[e~(t)] (62) V,~(t ) ~K~,

- - 2 K~ E[e2_~(t)] - -

2 E[e._ ~(t) r._ ~(t - - 1)],

-- 2 K~ E[r 2_ x(t - - 1)] - -

2 E[r r~_~(t - - 1)],

et par suite, les valeurs optimales (Kg)* et (K~)* minimisant respectivement E[r~(t)] et E[e2(t)] sont obtenues en annulant les d6rivdes partielles (61) et (62), c'est-h-dire ~t l 'aide des expressions (6) et (4) :

(63) (K~)* = E[~,_ l(t) r ._ l( t - - 1)]/E[r 2_ ~(t)],

(64) (K~')* ---- E[e._l( t ) r . _ ~ ( t - - 1 ) ] /E[ r2_~( t - 1)].

Consid6rant maintenant les 6quations exactes de l 'algorithme du gradient, avec deux coefficients, d6duites de (22)-(23) en remplagant (~7~, ~7~) par (V~, V~,), c'est-~t-dire :

(65) K~(t + 1) = K~(t) - - ~{K~(t) E[~ 2-~(t)] - - E[S._l(t) r._~(t - - 1)1},

(66) K~(t -t- 1) = K~,( t ) - - ~(K~(t) E[r2_l(t - 1)] - - E[~._l(t) r . _ d t - 1)]),

et d6finissant les 6carts AK~, AK~" par rapport 5. la solution optimale (K~)*, (K~')* d6finie b. l 'aide de (63)-(64) :

(67) A K~(t) ~ K~(t) - - (K~)*,

(68) A K~'(t) g K~'(t) - - (K~)*,

nous obtenons :

(69) A K~(t + 1) = (1 - - ~ E[e~_1(t)]) AK~(t),

(70) A K~(t + 1) = (1 - - ~ E[r 2_ ~(t ~ 1)]) A K~'(t),

ou encore :

(71) AK~(t + 1) = ( l - -~t~E[~_~(t)]J '+aAK~(0) ,

(72) AK~,(t + 1) = (1--~t~E[r~_~(t--1)]) '+~AK~(0),

et par suite pour assurer la convergence de l 'algorithme, c'est-h-dire la convergence vers z6ro de AK~(t) et AK~(t) quand t tend vers l'infiai, nous devons avoir :

(73) 0 < Iz~ < 2/E[e2_~(t)],

(74) 0 < tz~ < 2 / E [ r ~ _ d t - 1)].

Pour la version GTN2 d6crite ~t l 'aide des 6quations (30)-(33), les conditions (73) et (74) deviennent :

(75) 0 < ~t~ < 2,

(76) 0 < ~ ' < 2 .

Enfin pour les versions ~ et GT~j, l'6galit6 (8) est v6rifi6e et nous avons alors :

(77) 0 < ~. < 2/E[~_~(t)] ,

(78) 0 < ~t, < 2.

La condition (77) a 6t6 obtenue par [Widrow, Stearns, 1985]. A notre connaissance, les conditions de conver- gence relatives aux algorithmes ~a'~, ~rNz et ~VNt sont originales. A noter qu 'en pratique les fonctions

ANN. TI~LI~COMMUN., 41, n ~ 5-6, 1986 10/17

Page 11: Algorithmes en treillis adaptatifs

G . FAVIER. - A L G O R I T H M E S E N TREILLIS A D A P T A T I F S 315

d 'au tocorr61a t ion E[e 2_ ~(t)] et E[r2~_ l ( t - 1)] peuvent &re estim6es de man i6 re r6cursive vis-A-vis du temps /t l ' a ide des express ions (32)-(33), et pa r cons6quent les t aux de convergence peuven t &re ajust6s en temps r6el de mani6re /l sat isfaire aux condi t ions (73)-(78).

IV.2. Influence de la valeur initiale S dans l'algorithme MCTP.

La figure 8 repr6sen te l '6volu t ion du pa ram6t re a t estim6 ~ l ' a ide de l ' a l g o r i t h m e MCTP, pou r trois valeurs diff6rentes de la cond i t i on initiale : S = (0,1, 1, 10}. C o m m e le m o n t r e cet te figure, le choix de S n ' inf lue que sur les tou tes premi6res i t6rat ions de l ' a lgor i thme.

-1.

-2. A~

10 ~ 30 ~

Nt~.lt,

10

FIG. 8. - - A l g o r i t h m e MCTP. E t u d e d e l ' i n f l u e n c e d e l a v a l e u r i n i t i a l e S .

MCTP algorithm. Influence o f the initial value S.

IV.3. Comparaison de la vitesse de convergence.

La figure 9 repr6sente l '6nergie r6siduelle ob tenue en ut i l isant les a lgo r i thmes LMS, GTN 1 , G T N 2 , MCTP et MCTPN. U n e hi6rarchie t ou t ~ fai t logique s '6tabl i t entre les qua t r e p r emie r s de ces a lgor i thmes. Le c o m p o r t e m e n t de l ' a l g o r i t h m e MCTPN est quan t /t lui plus difficile /t expl iquer du fa i t de son 6quivalence th6or ique avec l ' a l g o r i t h m e MCTP, 6quivalence qui ne t r anspara l t pas au n iveau des s imulat ions. Cette d6gradat ion des p e r f o r m a n c e s doi t bien en tendu proven i r des propr i6 t6s num6r iques de l ' a lgor i thme.

5.-t/S.*

o-2. 1.-

Nb. it.

0. 2(~0. 10100

FIG. 9. ~ Algorithmes LMS, GTN~, OTN2, MCTP, MCaWH. Comparaison de la vitesse de convergence.

LIDS, GTN 1 , GTN~, MCTP, MCTPN algorithms. Comparison o f the convergence speed.

IV.4. Etude de l'effet des erreurs de quantification.

Afin d '6 tud ie r de mani6re exp6r imenta le l 'effet des erreurs de quan t i f i ca t ion sur les a lgo l i thmes 6tudi6s, des quant i f ica teurs on t 6t6 in t rodui t s dans le filtre en treillis p o u r s imuler :

- - la quant i f ica t ion des donn6es,

- - l a quan t i f i ca t ion des coefficients du filtre.

D ' a u t r e par t , la quan t i f i ca t ion a 6t6 s imul6e p a r a r rondi , c'est-~t-dire que la va leur quantifi6e Q[x] de la g r andeu r x est donn6e pa r :

t ~ .... [Ix ] s lxl Xm Q[x] = q e ( x ) In t + 0,5 , s i l x l < X m a x ,

q

Off q repr6sente le pas de quant i f ica t ion :

q ~ 2 - L + l Xma x,

L 6tant le n o m b r e de bits utilis6s. N o u s ind iquons ci-apr~s les r6glages choisis p o u r

chacun des a lgor i thmes .

LMS : ~. = 10 - a ,

Xm~x = 20 p o u r les donn6es x(t),

Xmax = 20 p o u r les coefficients an(t) sur la f igure 10,

Xmax = 1, 2, 5, 10, 20 p o u r les coefficients an(t) sur la f igure 12,

Xm~ = max(la t ] ) = 1,6 p o u r les coefficients an(t) sur la figure 11.

GTN 2 : ~ = 1 ; ;~ = 0,98 ; R ~ ( - - 1) = R~( - - 1) = S = 1,

Xmax = 20 p o u r les donn6es cn(t) et r , ( t ) ,

x=~x ----- 1 p o u r les coefficients K~*(t) et Kg(t) .

MCTP : ~. = 0,98 ; S = 1,

Xma~ = 20 p o u r les donn6es en(t) et rn(t),

Xm~ = 1 p o u r les coefficients K~(t) et K~(t) .

M C T P N : ~ ~ 0,98 ; S = 1,

Xm~ ----- 1 p o u r les donn6es ~n(t), ~,(t) et les coefficients On(t).

15-

12-

9"

6 -

3 - MCTPN ~ i t S 7 I0 1'3 I'6

FIG. 10. - - A l g o r i t h m e s LIDS, GTN2, MCTP, MCTPN. Comparaison de l'effet des erreurs de quantification

(Xmax = 20 pour les coefficients an(t) avec l'algorithme LMS).

LMS, G T N g , MCTP, MCTPN algorithms. Comparison o f the effect o f quantization errors

(Xma x = 20 for the an(t) coefficients with LMS algorithm).

11/17 A N N . T~L~COMMUN., 41, n ~ 5-6, 1986

Page 12: Algorithmes en treillis adaptatifs

316 G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS

La figure 10 repr6sente l '6nergie r6siduelle obtenue en sortie du filtre, apr6s convergence des algorithmes LMS, GTN 2 , MCTP, MCTPN, et en fonction du nombre de bits ayant servi au codage des donn6es et des coefficients. Comme pour l '6tude comparative des propri&6s de convergence, une hi6rarchie logique s'&ablit entre les algorithmes, bien que le comporte- ment de l 'algori thme MCTPN ne soit pas celui qui 6tait escompt6.

Nous devons remarquer que les coefficients du filtre en treillis 6tant born6s par 1 en module, leur quantifi- cation pose moins de probl6mes que celle des coeffi- cients a~ du mod61e AR, dont on ne connalt pas de bornes a priori. La figure 11 repr6sente l 'influence du choix de am~ = {1, 2, 5, 10, 20} sur la quantification avec l 'algori thme LMS. A noter le biais qui s ' introduit sur l'6nergie r6siduelle pour une valeur de am=~ = 1. Ce biais, dO ~t la quantification, s 'explique bien entendu par le fait que la valeur de am~x ~ I n 'est pas compa- tible avec les vraies valeurs des coefficients a~ du mod61e AR simul6. La figure 12 montre enfin que pour un choix optimal de am~ (c'est-h-dire 6gal h la plus grande valeur des a~), le compor tement des

15 t s~"

12 2 5 *0 20

0 ~ Nb. Bits

6 7 8 9 1'0 1'1 1=2 13 14 1'5 16 FzG. 11. ~ A l g o r i t h m e LMS.

Etude de l 'effet d e s e r reu r s de quan t i f i ca t ion en fonc t ion d u choix de Xma x p o u r les coefficients an(t),

LMS algorithm. Study of the effect o f quantization errors versus the Xma x value

for the an(t) coefficients.

15- ;2 r

129 I I MS

3-

0 Nb. Bits

~ ~ ~ ~ ~ ~ ~ 1'o ;11'2 ;3 ;4 ;s ;6 FzG. 12. - - A l g o r i t h m e s LMS et MCTP.

C o m p a r a i s o n de l 'effet des e r reu r s de quan t i f i ca t ion (Xma x = max(Jail ) = 1,6 p o u r les coefficients an(t ) avec l ' a lgo- r i t hmr LMS).

LMS and MCTP algorithms. Comparison of the effect of quantization errors ((Xma x =

max(la i l ) = 1.6 for the an(t) coefficients with LMS algorithm).

algorithmes LMS et MCTP vis4t-vis des erreurs de quantification est sensiblement identique.

L'avantage des filtres en treillis sur les filtres auto- r6gressifs apparait ici de mani6re 6vidente du fait de la bornitude par 1 des coefficients PARCOR, ce qui n'est pas le cas des coefficients AR.

L'6nergie r6siduelle S~ trac6e sur les figures 10, I 1 et 12 a 6t6 calcul6e ~t part ir d 'une moyenne temporelle sur 1 000 6chantillons du r6sidu direct (*N(t)).

V. ANALYSE DES E F F E T S DE QUANTIFICATION

DANS LES A L G O R I T H M E S EN TREILLIS ADAPTATIFS

L'analyse des effets de quantification dans les algorithmes en treillis adaptatifs est un probl6me difficile ~t &udier du fait de la nature non lin6aire et r6cursive (en temps et en ordre) des 6quations associ6es ~t ce type d 'algorithmes.

A ce jour, les principaux r6sultats th6oriques ont 6t6 obtenus par [Samson, Reddy, 1983] qui ont effec- tu6 une analyse d6taill6e des erreurs d 'arrondi inter- venant dans une mise en oeuvre en virgule fixe de l 'algorithme normalis6 d6crit dans le tableau II. Cette analyse a abouti ~t l 'obtent ion :

d 'une part, d ' un mod61e th6orique simplifi6 pour pr6dire le biais moyen dans les coefficients PARCOR estim6s ~t chaque &age du filtre ;

- - d ' a u t r e part, d 'une relation r6cursive pour calculer l 'erreur moyenne relative au cart6 des r6sidus, et permettant d'i l lustrer comment les erreurs se propagent d 'un 6tage b. l 'autre du filtre.

Le but de ce paragraphe est d' indiquer les princi- pales modifications pouvant 6tre apport6es aux algo- rithmes en treillis en vue d'am61iorer leur robustesse num6rique vis-~t-vis des erreurs de quantification.

Trois am61iorations sont pr6sent6es ci-apr6s.

V.1. Utilisation d'une r~actualisation directe des coefficients PARCOR.

Dans ce qui suit, nous nous int6ressorts ~t l 'algo- rithme avec fen&re ant6rieure utilisant l 'erreur de pr6diction a posteriori (voir tableau I).

Dans la formulat ion classique de cet algorithme, les gains K~ et K~ sont calcul6s comme 6tant les rapports de la valeur estim6e 8, de la fonction d'inter- corr61ation des r6sidus direct et r&rograde, et des

r r valeurs estim6es S,_1 et S;,-1 des fonctions d 'auto- corr61ation de ces m~mes r6sidus, respectivement.

Le calcul de ces fonctions de corr61ation estim6es constituant la principale source d'erreurs num6riques dues aux effets de quantification, une premi6re

ANN. TtL~COMMLrN., 41, n ~ 5-6, 1986 12/17

Page 13: Algorithmes en treillis adaptatifs

G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS 317

(81)

Soit :

am61ioration consiste ~t supprimer le calcul r6cursif explicite de la fonction d'intercorr61ation 3, , de mani6re /t utiliser une r6actualisation directe des coefficients PARCOR. En s'inspirant des calculs effectu6s au w II.2.l.a., nous avons :

(79) K~.(t + 1) = ~.(t + 1)/S.~_~(t + 1),

(80) = [Z 8.(t) + r._ ~(t) e._ ~(t q- 1)/ Yn_2(t)]/S~._~(t § 1),

: [Z S. ~_ ~(t) K~(t) + r._ ~(t) • ~._~(t + 1)/y._z(t)]/S~._~(t + 1).

en_~(t + 1) (82) K.~(t § 1) : K.~(t) -k- ~,n_2(/) Sn~_~( t ..~ 1) X

[r._ ~(t) - - K~(t) ~._ a(t q- 1)].

De m~me :

r ._a(t) (83) K~(t -[- 1) = K~(t) -k •

Yn-2(t) Sf,_ x(t) [e~_~(t -k 1) - - K~(t) r~_,(t)].

Ces formules ont la mSme structure que les expressions (30)-(31) relatives h l 'algorithme LMS (version norma- lis6e/t 2 coefficients). A noter que les erreurs quadra- tiques S~_ ~(t -k 1) et Sn ~_ ~(t) interviennent au niveau des facteurs de convergence.

Une autre forme peut ~tre donn6e aux expressions (82) et (83). En effet, en tenant compte des relations r6cursives (A-41) et (A-70) v6rifi6es par y.(t), nous obtenons :

(84) K~(t -[- 1) -- %_1(t q- 1) y . -2 ( t )

et :

%_~(t) (85) K~(t q- 1) -- V.-2 "~'tz)

K~(t) +

r ._ l ( t ) e . - l ( t q- 1)

y . -2( t ) S~_l(t q- 1)'

- - K~(t) -k

r,_~(t) e , - l ( t + 1)

% - 2 ( 0 S~_~(t)

[Ling, Manolakis, Proakis, 1985] ont propos6 une forme 16g6rement diff6rente de ces 6quations.

Voir [Ling, Proakis, 1984] pour une modification similaire de l 'algorithme avec fenStre ant6rieure utilisant l 'erreur de pr6diction a priori.

V.2. Utilisation d'une pr6cision diff6rente pour les op6rations de multiplication et d'addition.

Pour les formules de r6actualisation de la forme (82) ou (83), c'est-h-dire pour lesquelles la valeur estim6e du param6tre A l ' instant (t q- 1) est 6gale ~t la valeur estim6e h l ' instant t additionn6e d 'un terme correctif dont la valeur est beaucoup plus petite que celle du param6tre estim6, les probl6mes de pr6cision num& rique proviennent davantage de l 'op6ration addition que de l 'op6ration multiplication intervenant dans

13/17

le calcul du terme correctif. Par suite [Ling, Proakis, 1984] ont propos6 de prendre une pr6cision diff6rente pour effectuer les op6rations de multiplication et d 'addit ion, ce qui permet de diminuer la longueur de mot utilis6e pour la multiplication, sans d6grader les performances de mani6re significative.

V.3. Utilisation d'un estimateur non biais6 des fonc- tions de corr61ation.

Comme nous l 'avons signal6 pr6c6demment, les effets de quantification sont surtout importants au niveau de l 'estimation des fonctions de corr61ation ~ , , S~ et S~. En effet, ces quantit6s 6tant estim6es ~t l 'aide d 'une sommation exponentiellement pond6r6e plut6t que d 'une moyenne, il en r6sulte qu'elles sont biais6es. [Swanson, Symons, 1984] ont propos6 d'am61iorer la pr6cision num6rique de ce calcul en utilisant une formule de r6actualisation non biais6e de ces quantit6s.

D 'au t re part, en introduisant la notion d'op6rateur de projection non bi~/is6, [Swanson, Symons, 1985] ont d6velopp6 un algorithme en treillis non biais6 et normalis6.

Cet algorithme comporte 3 N multiplications et 3 N additions suppl6mentaires par it6ration temporelle par rapport h la version normalis6e du tableau II. D 'aut re part, en divisant le signal d'entr6e x(t) par la racine carr6e d 'une valeur estim6e non biais6e de sa variance, cela assure que les signaux d'erreur normalis6s se trouvant dans le filtre en treillis aient une variance unit6e.

VI. CONCLUSION

Cet article nous a permis de pr6senter de man i6re unifi6e et synth&ique diff6rentes versions d'algorithmes en treillis adaptatifs. Une d6monstration originale de la version a priori des moindres carr6s ainsi que de nouveaux r6sultats de convergence relatifs aux algorithmes du type gradient ont 6t6 donn6s. La complexit6 et les performances num6riques de ces algorithmes ont 6t6 compar6es rant en simulation que d 'un point de vue th6orique. Le probl6me de l '6tude des effets de quantification dans ces algo- rithmes a ensuite 6t6 abord6 ~ la fois d 'un point de vue exp6rimental et d 'un point de vue algorithmique en indiquant comment les formulations classiques peuvent ~tre modifi6es de mani6re h assurer une meilleure robustesse num6rique pour ces algorithmes. Les r6sultats pr6sent6s dans cet article ne constituent bien entendu qu 'une &ape dans l ' important travail qui reste ~ faire pour une meilleure compr6hension du comportement num6rique des algorithmes de filtrage adaptatifs en g6n6ral.

ANN. T~L~COMMUN., 41, n ~ 5-6, 1968

Page 14: Algorithmes en treillis adaptatifs

318 G . F A V I E R . - - A L G O R I T H M E S E N T R E I L L I S A D A P T A T I F S

R E M E R C I E M E NTS .

Nous tenons gt remercier Michel Cresp qui a rdalisd les simulations prdsent&s dans cet article.

ANNEXE

Algorithmes en treillis du type moindres earr6s avee fen~tre ant6rieure.

Obtention des 6quations relatives aux versions a posteriori

et a priori non normalis6es.

Ces algorithmes seront pr6sent6s h l 'aide d'une approche alg6brique. Nous d6finissons tout d 'abord les notations utilis6es �9

(A-l) en(t) zx en(t, t) = xT,_n A~(t),

(A-2) rn(t) =& rn(t, t) = x v,,,_~ Bn(t),

(A-3) ~n(t) & ~.(t - - 1, t) = xT,,-n A . ( t - - 1),

(A-4) r.(t) =A rn(t - - 1, t) = x v,,,_n Bn(t - - 1),

avec :

(A-S)

(A-6)

(A-7)

et :

(A-8)

(A-9)

x.,_.T =A [x(t) ... x(t - - n)],

x~,, & [x(0) ... x(t)],

x ( t - - i ) s V i > t,

u > 0 ,

A~(t) & [1 a ] ( t ) . . , a~(t)] = [1 ~_~(t)],

Bnr(t) ~ [b~(t) ... b](t) 1] = [ ~ ( t ) 1].

Les variables z.(t), r,(t), ~n(t), rn(t) repr6sentent les erreurs de pr6diction a posteriori et a priori, directes et r6trogrades, d 'ordre n e t prises A l ' instant t.

Exprimons tout d 'abord la solution des moindres carr6s pour les vecteurs de param6tres A~(t) et Bn(t) correspondant A la minimisation des crit6res :

t

(A-10) S~(t) = Z X'-* r " r

= I lxo . + xn(t)xat)ll w., = l l x x t ) A . ( t ) [ 1 2 ( o , et :

t

(A-11) S:(t) = Z X'-~ r2(~) = [lXn(t) Bntt)/l~w.),

avec :

(A-12) W(t) = X off X est le facteur d'oubli,

(A-13) -x(0)

Xn(t)&[Xo,,[~Z,(t)]=

. ~ ~ ~ ~ �9 0

x(0).

"0 x(0)

x ( t ) x ( t - - 1) . . . . x ( t - - n ) _

dim Xn(t) = (t -4- 1, n + 1).

La solution des moindres carr6s est donn6e par :

s.~u) o (A-14) R.(t) [An(t) Bn(t)l = 0 : : 0

0 sRt) avec :

(A-15) Rn(t) & X~r(t) W(t) X.(t).

Nous d6finissons maintenant le vecteur auxiliaire Cn(t) v6rifiant l'~galit6 :

(A-16) R.(t) C.(t) = x , a - n ,

ainsi que le scalaire :

(A-17) v.(t) /x x x C.(t) T = t , t - - n ~ X t , t _ n X

[X~r(t) W(t) Xn(t)]-x x t , , - n .

Cette derni6re quantit6 qui peut s'interpr6ter comme une variable de vraisemblance, est telle que 0 ~< v,(t) ~< 1. Nous utiliserons 6galement la variable

(A-18) yn(t) = 1 - - v,(t).

Les 6quations du filtre en treillis (versions a posteriori et a priori) peuvent &re obtenues A pattir des formules permettant de calculer les coefficients A~(t) et Bn(t) des pr6dicteurs direct et r&rograde r6cursivement vis-A-vis de l 'ordre n e t du temps t. Ces formules se d6duisent des d6compositions suivantes de Rn(t).

Partitionnant X . ( t ) en : ,Al,[ 0~ ..... 0] in ( t ) = Xn- l(t) X!0) :: X n_ l ( t - 1) )

x(t--n)] I x('t)

nous d6duisons :

off les signes * repr6sentent des quantit6s qui n'inter- viendront pas explicitement dans les calculs. A noter que ces deux part i t ionnements de R.(t) sont ind,- pendants du facteur d'oubli X. Par suite, les formules de raise Ajour vis-a-vis de l 'ordre n seront ind6pendantes de X.

D'autre part :

[Xn(t--1)] [ X W ( t - - 1 ) O ] (A-21) Xn( t )= [ x r t_" ] e t W ( t ) = [ 0 [ 1 J"

D 'oh :

(A-22) Rn(t) ----- X Rn(t - - 1) + xt , t - , x~ t - . �9

Nous allons tout d 'abord d6terminer les relations r6cursives vis-a-vis de l 'ordre.

R E L A T I O N S R t ~ C U R S I V E S V I S - A = V I S D E L ' O R D R E .

Relations relatives aux coefficients An(t), Bn(t) et aux crit&es S~(t), S](t).

ANN. TI~L~COMMUN., 41, n ~ 5-6, 1986 14/17

Page 15: Algorithmes en treillis adaptatifs

G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS 319

En utilisant les part i t ionnements (A-20) et l '6quation (A-14), nous obtenons :

(A-23)

Rn(t)[An_x(t) 0 ] [ 0 I B . _ l ( t - - 1 ) J

En remarquant que :

S~~( t ) 8~'(t) [ 0

: : .

0 I_ ~(t) I sL ~(t-- ~)

(A-24) [OIB~._I(t--1)I R.(t) [A"o Kt)]

et compte tenu de la pr6sence des 1 dans A._ ~ et B~_~ nous d6duisons que :

(A-25) 8.~(t) = 3.'(t)---- 3.(t).

A partir des 6quations (A-14) et (A-23), il est facile de d6duire les relations r6cursives vis-A-vis de l 'ordre pour les coefficients des pr6dicteurs direct et r&ro- grade :

(A-26)

(A-27)

et :

(A-28)

A. ( t )= [A"o~(t)] - -

~.(t) [ 0 ] S. ~_ x(t ~ 1) B n _ l ( t - - 1) '

[ o ] B.(t) = B~_~(t-- 1) S ~ _ ~ ) [ 0 ] '

~(t) S~(t) = S~_~(t)

S ~ _ l ( t - - 1) ' 82.(t)

(A-29) ST,(t) = ST,_a(t--1) Sn ~_ l(t)"

Relations relatives aux erreurs de prddiction a posteriori z.(t), r.(t).

Les 6quations de base (1)-(2) du filtre en treillis peuvent ~tre rnaintenant obtenues A partir des d6fini- tions (A-1)-(A-2) et des relations (A-26)-(A-27) :

(A-30) ~.(t) = X,,t_.T A.(t),

--- [x~,+~_.x(t--n)l [A" j ( t ) ] -

~.(t) [ 0 ] x , _ ~ , , _ . ] B n - ~ ( t ~ l ) ' S ~ _ t ( t - - 1) [x(t) r

: en- a(t) - - K~(t) r._ x(t - - 1).

Avec :

(A-30

De m~me :

(A-32)

Kg(t) & 8.(t)lS~_~(t - - 1).

r .(t) ----- r ._ x(t - - 1) - - KC.(t) r x(t),

avec :

(A-33) K~(t)& ~.(t)/S~_x(t).

Relations relatives aux variables C.(t), v.(t).

Les quant i t& auxiliaires C.(t) et v.(t) peuvent ~tre 6galement calcul6es r6cursivement par rappor t b. l 'ordre. A partir des 6quations (A-14) et (A-16) et du par t i t ionnement (A-20), nous avons :

(A-34) R . ( t ) [ C . ( t ) C " o x ( t ) l B . ( t ) ]

Xt,t+l-n 0 ] = xt,t-. 0 J '

I * Is (t)J d 'o~ on peut tirer la relation suivante :

(A-35) C.(t) ___- - [ C ~ j ( t ) ] + at Bn(t ) ,

Bn RnCn= Cn RnBn 0~ &ant d~termin6 A part ir de l'~galit6 r r

(A-36) B.rtt) R.(t) C.(t) ---- B~(t) x , , t - . = r.(t),

(A-37) C~(t) RJt) B~(t) =

d 'o~ :

I ] r.(t) (A-38) C.(t) = Cnol( t ) d- S ~ B.(t)-

En reportant cette expression de C. dans la d6finition (A-17), nous obtenons :

(A-39) v.(t)-~ [x~,,+~_.x(t--n)] [C"o~(t) l +

r.(t) T B.(t), S,~(t) x , , ,_ .

d 'o~ : r~(t)

(A-40) %(0 = vn-1(0 -k- S~'(t-~ '

et par suite : r]( t)

(A-41) % ( 0 : % - x(t) S~,(t)

Relations relatives aux erreurs de prddietions a priori en(t), rn(t).

Pour terminer la pr6sentation de l '&ape de raise b. jour vis-A-vis de l 'ordre, nous montrons c o m m e n t les 6quations de base (A-30)-(A-33) peuvent ~tre exprim~es en termes des erreurs de pr6diction a priori. A partir de la d6finition (A-3) et de la relation (A-26), nous tirons :

(A-42)

Soit :

(A-43)

Avec :

(A-44)

r T A n _ , ( t - - 1 ) - - ~- Xt,t+l_ n 8n(t-- 1)

T S ~ _ ~ ( t - - 2 ) x t - a a - " B " - ~ ( t - - 2 ) "

r = i n _ l ( t ) - - R~(t) r . - l ( t - - 1).

Y(~(t)& b. ( t - - 1) /S~_1( t - -2) .

15/17 ANN. T[L[COMMtrN., 41, n ~ 5-6, 1986

Page 16: Algorithmes en treillis adaptatifs

320

De m~me h par t i r de la d6finit ion (A-4) et de la relat ion (A-27), nous avons :

(A-45) ~.(t) = x[_ ~,,_. B._ ~(t - - 2) - -

3.(t-- 1) xa. A . _ d t ~ 1). S n e _ l ( t ~ 1) t,t+l-n

Soit :

(A-46) r . ( t ) ----- r . _ ~ ( t - 1 ) - K .~( t )~ ._d t ) .

Avec :

(A-47) K~(t) zx 3 . ( t - 1)/S~,_ l ( t - 1).

Nous allons dd te rminer ma in t enan t les relat ions r4cursives Vis-h-vis du temps.

RELATIONS RF, CURSIVES VIS-A-VIS DU TEMPS.

Relations relatives aux coefficients A.(t), B.(t) et aux crit&es S.~(t), S.'(t).

En uti l isant les d6compos i t ions (A-20) et (A-22) et la d6finition (A-16), nous avons :

(A-48) R.(t) [A.(t) An(t--1)ICn_l(O1)]

= [ ~ X [S~(t)] [ S~"(tO1)]; +

l) [ x(,) ] . ] X t ' t - n L X t _ l , t _ n ] X t - l , t - n

e t / t part i r d ' une combina i son lin6aire des n derniares lignes de (A-48), nous pouvons d4duire :

A . ( t ) = A.ft ~ 1) -- x Tt,t-n A.( t - - 1) •

[ 0 ] = A . ( t - 1 ) - ~ ( t ) Cn_~(t--1) '

(A-49)

(A-50)

D'au t r e par t :

(A-51) S.~(t) = A.r(t) R . ( t ) A.( t ) ,

ou encore en uti l isant (A-48) et (A-50) :

(A-52) S~(t) = X S~(t- 1) q- ~.(t) e.(t),

En proc6dant de la m~me fagon, on peut mon t re r

B.(t):B~(t--1)--r~(t)fCn;l(t)],

S~(t) = Bnr(t) R. ( t ) B.(t), = X S ~ ( t - 1) q- l?.( t)r .( t) .

al lons expr imer ma in t enan t les erreurs de pr6dict ion a priori directe et r6 t rograde en fonct ion des erreurs de pr6dict ion a poster ior i . En pr6multi-

que :

(A-53)

et :

(A-54)

(A-55)

Nous

G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS

pl iant les 6galit6s (A-50) et (A-53) par xt, tT - n , et compte tenu des d6finitions (A-17) et (A-18), nous ob tenons :

(A-56) e.(t) = [1 - - v . _ l ( t - 1)] ~.(t),

(A-57) = Yn-1(t ~ 1) ~.(t). De m~me :

(A-58) r . ( t ) = y . _ d t ) ~.(t).

Enfin, il est possible de lier les crit&es a priori S~(t) et S~(t) aux crit6res a poster ior i S~(t) et S~'(t). Nous avons ."

(A-59) gnU(t) = ~ X'-~ g2(Z) �9 =o = A.r(t - - 1) R,( t ) A,( t - - 1),

ou encore en ut i l isant les relat ions (A-14), (A-17), (A-48) et (A-50) :

(A-60) g~(t) = She(t) q- Vn_l(t - - 1) ~2n(t ).

De meme :

(A-61) S.'(t) = S~(t) q- v . _~ ( t ) r ] ( t ) .

Relation relative d 8.(t). D'apr6s (A-23), nous avons :

dl signifiant << derni~re ligne de >>, ou encore en utili- sant la relat ion (A-50) :

(A-63) ~.(t) = dl I R.(t) I [ A"-~(t- 0 1)] _

En prenant en compte la d6composi t ion (A-22) et le par t i t ionnement (A-20) de R. ( t ) , (A-63) s '6crit :

t {?~ Rn(t -- 1) -j- xt.t-n x~t-n} • (A-64) ~.(t) dl \

ou encore en ut i l isant les re la t ions (A-23), (A-38) et les d6finitions (A-3) et (A-16) :

(A-65) 3.(t) = X~.(t - - 1) + r . _ ~ ( t - - 1) ~ . - d t ) .

Relation relative d C.(t) .

En suivant la m~me d4marche que celle adopt6e pou r d6montrer la rdcurrence sur l 'ordre , nous avons :

0 (A-66) R.(t) [C.(t) Cn_l(t--1) A.(t)]

= Xt,t --n

1 I X t - l , t - n

A N N . TEL~COMMUN., 41, n ~ 5-6, 1986 16/17

Page 17: Algorithmes en treillis adaptatifs

G. FAVIER. -- ALGORITHMES EN TREILLIS ADAPTATIFS

d'ofa on peut t irer la re la t ion :

[ ~ (A-67) Cn(t)----- C n _ ~ ( t - - 1 ) + [3An(t),

[~ &an t d&ermin6 fi par t i r de l '6galit6 A~ r Rn Cn

: C~ R~ An . C o m p t e t e n u des d6finitions (A-I) et (A-16), il est facile de m o n t r e r que :

(A-68) [5 : ~n(t)]S~(t).

Relation relative d vn(t).

En ut i l i sant les d6fini t ions (A-17) et (A-I) et les relat ions (A-67)-(A-68), nous avons :

(A-69)

D ' o f l :

(A-70)

321

~n(t) = c ~ ( t ) x t , ,_n , : c ~ _ l ( t - - 1) x , _ l , , _ n +

en(t) S~(t) A~(t) x t , t - n ,

z~(t) = v n - l ( t - - 1) + S~(t~'

yn(t)- '~ y n - l ( t - - 1 ) - - S~(t)"

Manuscri t re fu le 28 juin 1985,

acceptd le 21 avril 1986.

BIBLIOGRAPHIE

BENVENISTE (fix.). Algorithmes rapides pour les syst6mes dyna- miques lin6aires. Introduction : estimation et factorisation spectrale ; quelques points de vue f6conds. Outils et moddles math~matiques pour l'automatique, l'analyse de syst~mes et le traitement du signal (1982), 2, Ed. du CNRS.

BURG (J. P.). Maximum entropy spectrum analysis. Ph. D. Thesis, Stanford Univ., USA (1975).

CP.~SP (M.). Etude comparative d'algorithmes en treillis. Application h la pr6diction de trajectoires et au traitement d'antennes. Thdse de 3 e cycle, Lassy, Univ. de Nice (1984).

FRIEDLANDER ([3.). Lattice filters for adaptive processing. Proc. 1EEE, USA (Aug. 1982), 70, n ~ 8, pp. 829-867.

GOODWIN (G.), SIN (K.). Adaptive filtering, prediction and control. Prentice-Hall, Englewood Cliffs, NJ (1984).

GRIFFITHS (L. J.). A continuously-adaptive filter implemented as a lattice structure. Proc. ICASSP, Hartford (May 1977), pp. 683-686.

GRIFFITHS (L. J.). An adaptive lattice structure for noise cancell- ing applications. Proc. ICASSP, Tulsa (April 1978), pp. 87-90.

GRIFFITHS (L. J.), MEDAUGH (R. S.). Convergence properties of an adaptive noise cancelling lattice structure. Proc. IEEE- CDC, San Diego (Jan. 1979), pp. 1357-1361.

LEE (D. T.L.), MORF (M.). Recursive square-root ladder estimation algorithms. Proc. 1CASSP, Denver (April 1980), pp. 1005-1017.

LING (F.), PROAKIS (J. G.). Numerical accuracy and stability : two problems of adaptive estimation algorithms caused by round-off error. Proc. ICASSP, San Diego (March 1984), Paper 30.3.

LING (F.), MANOLAKlS (D.), PROAKIS (J. G.). New forms of LS lattice algorithms and an analysis of their round-off error characteristics. Proc. 1CASSP, USA (1985), pp. 1739-1742.

MAKr~OUL (j.). Stable and efficient lattice methods for linear

prediction. IEEE Trans. ASSP, USA (Oct. 1977), 25, n ~ 5, pp. 423-428.

MAKHOOL (J.). A class of all-zero lattice digital filters : properties and applications. IEEE Trans. ASSP, USA (Aug. 1978), 26, n ~ 4, pp. 304-314.

MORF (M.), LEE (D. T.L.). Recursive least squares ladder forms for fast parameter tracking. Proc. 1EEE-CDC, San Diego (Jan. 1979), pp. 1362-1367.

MORF (M.), LEE (D. T. L.), NICKOLLS (J. R.), VIEIRA (A.). A classification of algorithms for ARMA models and ladder realizations. Proc. ICASSP, Hartford (May 1977), pp. 13-19.

SAMSON (C.). A unified treatment of fast algorithms for identifi- cation, lnt. J. Control., USA (1982), 35, n ~ 5, pp. 909-934.

SAMSON (C.), REDDY (V. U.). Fixed point error analysis of the normalized ladder algorithm. 1EEE T,'ans. ASSP, USA (Oct. 1983), 31, n ~ 5, pp. 1177-1191.

SATOmOS (E. H.), PACK (J. D.). Application of least squares lattice algorithms to adaptive equalization. IEEE Trans. COAl, USA (Feb. 1981), 29, n ~ 2, pp. 136-142.

SHENSA (M. J.). Recursive least squares lattice algorithms. A geometrical approach. 1EEE Trans., AC, USA (June 1981), 26, n ~ 3, pp. 695-702.

SWANSON (D. C.), SVMONS (F. W.). Sources of numerical errors in both the square-root normalized and unormalized least squares lattice algorithms. Proc. 1CASSP, San Diego (March 1984), Paper 45.4.

SWANSON (D. C.), SVMONS (F. W.). The unbiased least squares lattice. Proc. ICASSP (1985), pp. 1189-1192.

WIDROW (B.), STEARNS (S.). Adaptive signal processing. Prentice- Hall, Englewood Cliffs, NJ (1985).

YOUN (n . H.), MATHEWS (V. J.), CHO (S. H.). An efficient lattice predictor algorithm for instantaneous frequency estimation. Signal Processing, NL (1986), 10, n ~ 1, pp. 75-81.

17117 ANN. T~LI~COMMUN., 41, n ~ 5-6, 1986