reconnaissance de panneaux de signalisation routière en utilisant la détection et la...

Post on 22-Jan-2018

2.515 Views

Category:

Education

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

2

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

3

4

La forte variabilité de panneaux de signalisation routière

(PSR) dans des environnements non contrôlés a rend leur détections et classification un problème difficile !!!

La reconnaissance PSR permet de prévenir le conducteur de ne pas prendre des décisions inappropriées dans des situations potentiellement dangereuses.

Fig.1 Certains panneaux d'avertissement.

5

Les méthodes de reconnaissance des PSR sont utilisées en combinaison avec d'autres méthodes afin de recueillir des informations, mesurer de la position par rapport à la route et l'orientation des différents points de repère en mouvement dans la plate-forme terrestre.

6

Dans la littérature, on peut trouver deux principales approches pour résoudre le problème de la RPS:

1. Reconnaissance basée sur la couleur

2. Reconnaissance basée sur les niveaux de gris

Fig.2 Résultats de reconnaissance de la RPS

7

La première s'appuie sur la couleur pour réduire de faux résultats positifs dans le processus de reconnaissance

alors que les méthodes de niveaux de gris se concentrent sur la géométrie de l'objet.

Des travaux récents utilisent combinaison des deux cases pour améliorer le taux de détection.

8

Le seuil est appliqué sur une représentation HSV(HUE,SATURATION,VALUE) de l'image pour trouver des régions avec une forte probabilité d'avoir un panneau de signalisation.

Fig.3 Le seuil est appliqué sur une représentation HSV

9

Une fois que les régions sont normalisées à une taille prédéfinie, un SVM linéaire est utilisé pour classer la région de l'une des formes possibles, comme cercle ou d'un triangle.

La couleur et les informations sur la forme sont utilisées pour la classification grossière, et enfin un SVM gaussien est utilisé pour effectuer l'étape de classification fine.

10

Puisque l'information de couleur est fortement liée au type de caméra, éclairage et vieillissement du

signe, l'utilisation des informations de couleur introduit des difficultés supplémentaires pour le processus de reconnaissance!!!

Fig.4 Levieillissement du panneau

Fig.5 Différentséclairages du panneau

11

Solutions pour résoudre l’enjeu:

1. Réseau neuronal

2. Approche complexe basée sur une cascade de détecteurs, où chacun est un ensemble de classificateurs dopés « Boosted » sur la base des caractéristiques de Haar.

Pour le dernier: Lienhart et Maydt [3] ont présenté une extension d’ensemble des caractéristiques de Haar, ce qui démontre que Adaboost converge plus rapidement et avec de meilleurs résultats lorsque l’ensemble des caractéristiques est grand.

12

D'autre part, en raison de la recherche exhaustive sur les caractéristiques exposées, le temps d’apprentissage s’augmente par rapport au nombre de caractéristiques.

Ce fait rend impossible toute approche qui tente d'étendre l'ensemble des caractéristiques.

13

Les auteurs proposent une technique pour résoudre le dernier problème.

« Error Correcting Output Codes (ECOC) »

Cette technique est un outil de catégorisation multi-classe très réussi en raison de sa capacité à partager les connaissances du classificateur entre les classes.

ECOC démontre une haute précision avec un très petit nombre de classificateurs binaires.

14

:

1. La détection de PSR de l’arrière-plan se fait à l’aide de la méthode évolutive AdaBoost.

2. Deuxièmement, pour faire face au problème de catégorisation multi-classe, afin de faire la distinction entre un grand nombre de classes, la technique d'apprentissage multi-classe « ECOC » sera utilisée.

15

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

16

Le processus de détection prend une image en entrée et fournit en sortie les régions qui contiennent l'objet

candidat.

17

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

18

Lorsqu’on travaille avec des problèmes asymétriques tels que la détection de l'objet, chaque fois qu’on analyse

une image, le système doit se débarrasser d'un grand nombre de

régions négatives alors que seulement celles correspondant à l'objet que nous recherchons sont conservés.

19

L'architecture en cascade permet de jeter les régions non-objets faciles à coût de calcul faible, tandis que les régions plus complexes sont

profondément analysées.

20

Ensuite, un classificateur est entraîné à réaliser un nombre calcul minimal et obtenir un taux maximal de

fausse alarme.

Ce processus est répété jusqu'à ce que le nombre désiré de phases ou le taux de fausses alarmes atteignent le but désiré.

21

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

22

Le « Dissociated Dipole » opérateur est un outil pour effectuer des comparaisons d'image non-locales. Comme un arrête-viseur de recherche simple, « Dissociated Dipole » est un opérateur différentiel composé d'un excitateur et d’un lobe inhibiteur, et peut être utilisé dans n'importe quelle orientation ou échelle.

23

Fig.6 Le but de l'approche des « Dissociated Dipole » est de dissocier les deux attributs

24

La valeur moyenne de tous les pixels dans le dipôle inhibiteur est soustraite de la valeur moyenne des pixels excitateurs dipolaires. Comme dans le cas des fonctions de Haar, l'image intégrale est utilisée pour calculer la somme des pixels à l'intérieur des régions rectangulaires.

Fig.7 « Traffic Sign Recognition using Evolutionary Adaboostdetection and Forest-ECOC classification », page 2, [1]

25

En termes de calcul, l'utilisation de dipôles dissociées signifie que si on augmente les caractéristiques d'environ 600.000 à plus de 230 caractéristiques dans une taille de fenêtre d’apprentissage de 30 × 30 pixels, ce qui rend l'approche

classique de calcul .

Pour faire face à cette limitation, nous définissons une approche évolutive de

Adaboost.

26

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

27

« Boosting » est une technique d'apprentissage puissant qui permet de combiner la performance de nombreuses fonctions simples de classification ou classificateurs faibles pour produire un classificateur fort.

28

AdaBoost - est un méta-algorithme.

Dans l'apprentissage, il construit une composition des algorithmes d'apprentissage de base pour améliorer leur efficacité. AdaBoost algorithme adaptatif est amplifiant, en ce sens que chaque classifier est basé sur les objets suivants, qui sont mal classés en utilisant des classificateurs précédents.

29

Cette méthode est basée sur un algorithme adaptatif boosting (gain adaptatif) ou AdaBoost abrégée. Le sens de l'algorithme est que, si nous disposons d'un ensemble d'objets de référence, c’est-a-dire d’avoir les valeurs et la classe à laquelle ils appartiennent (par exemple: -1 pas de visage, +1 a un visage), en plus il y a beaucoup de classificateurs simples, nous pouvons faire un classificateur meilleur et puissant.

30

Fig.8 Exemple des objets sur une visage

31

L’algorithme d’AdaBoost

AdaBoost appelle un classificateur faible pour chaque cycle. Après chaque appel est faite la mise à jour de poids de distribution qui répondent à l'importance de chacun des objets comme un ensemble d’apprentissages pour la classification. Ensuite, à chaque itération, le poids d’objet mal classé augmente, de sorte que le nouveau classificateur "concentre" sur ses objets.

32

Avantages de l'algorithme Adaboost.

1. Bonne capacité de généralisation. En vrais problèmes (pas toujours, mais souvent) il est possible de construire une composition qui est de qualité supérieure par rapport l’algorithme de base. La capacité de la généralisation peut être améliorée (dans certains problèmes) en augmentant le nombre d'algorithmes de base.

33

Avantages de l'algorithme Adaboost.

2. Facile à mettre en œuvre.

34

Avantages de l'algorithme Adaboost.

3. La durée de la construction des compositions est presque entièrement déterminé par les algorithmes d'apprentissage de base.

35

Avantages de l'algorithme Adaboost.

4. Capable d'identifier les objets qui sont des émissions de bruit.

36

Inconvénients de l'algorithme Adaboost.

1. AdaBoost a tendance à surapprentissagequand il y a un bruit important dans les données.

37

Inconvénients de l'algorithme Adaboost.

2. AdaBoost nécessite un échantillon d’apprentissage suffisamment long.

38

Inconvénients de l'algorithme Adaboost.

3. La stratégie d’ajouter un grand nombre de classificateurs conduits à la construction d'un ensemble non optimal de la base des algorithmes.

39

Inconvénients de l'algorithme Adaboost.

4. Boosting peut conduire à la construction des compositions volumineux, constitué de centaines d'algorithmes.

40

Fig.9 Algorithme AdaBoost

41

Fig.9 Exemple de fonction de l’Algorithme AdaBoost

42

Fig. 8 Caractéristiques d’Haar

43

Dans l'approche « Boosting » classique, une recherche exhaustive est utilisée pour trouver le meilleur classificateur faible. Par conséquent, avec un énorme ensemble de caractéristiques, cette approche devient impossible de calculer.

44

Le « evolutionary weak learner » minimise le poids d'erreur de l’Adaboost :

(1)

Où:

X = {(xi, yi)|i = 1 : m} sont les paires d'échantillons-étiquette composées de l’ensemble d’apprentissage

W = {w1,w2, ...,wm} est la distribution de poids Adaboost sur l'ensemble d'apprentissages

h (xi) correspond à l'étiquette prédite par l'hypothèse h pour le xi objet d’apprentissage

45

Les approches classiques basées sur la descente de gradient ne peuvent pas être appliquées sur ce problème.

Une autre solution est l'utilisation d'une approche évolutive.

46

La stratégie évolutive plus connu est l'algorithme génétique, qui fait une recherche sur les espaces de solutions utilisant les trois concepts de base de la théorie de Darwin:

1. mutation

2. cross-over

3. sélection naturelle.

47

L'algorithme évolutionnaire remplace la recherche exhaustive sur toutes les caractéristiques de sorte que même de très grands ensembles de caractéristiques peuvent être recherchés dans un délai raisonnable.

L'utilisation d’algorithmes évolutionnaires dans le domaine du traitement de l'image, en particulier l'apprentissage automatique des caractéristiques de détection d'objet, est un domaine de

recherche qui reçoit un intérêt croissant.!!!

48

Fig.10 Algorithme évolutive

49

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

50

Lorsqu’on travaille avec des algorithmes évolutionnaires, nous devons définir deux éléments de base: les individus et la fonction d'évaluation.

51

La fonction d'évaluation

(2)

où I est un individu

52

L'étape suivante est de déterminer les paramètres qui sont nécessaires pour définir h, ou en d'autres termes, pour décider la dimension de I.

53

La définition de l'apprenant faible « WeakLearner » est constitué d'une caractéristique et une valeur de seuil(threshold).

La fonction peut être paramétré par la position en haut à gauche, et la taille de l'une des régions et leur type.

54

La taille, le poids, et la position des autres régions qui sont conformes à la fonction Haar-like sont fixées par le type de caractéristique.

Fig.9 La définition des caractéristiques de Haar à partir d'une région donnée et du type de valeur.

55

On définit un classificateur faible sur la base du dissocié dipôle que

h(I,Thr,xi)->{-1, 1}

I=(Rex,Rey,Rew,Reh,Rix,Riy,Piw,Rih)

Re étant le dipôle excitateur

et le paramètre de type T est changé par les paramètres du dipôle inhibiteur Ri.

Les dipôles dissociés ne sont pas affectés par l'échelle étant donné que la valeur moyenne est utilisée au lieu de la somme.

56

Cette approche présente deux avantages principaux:

la normalisation de l'éclairement n’est pas nécessaire

et l'élimination du processus d'apprentissage par seuil(threshold) réduit le temps d'évaluation.

57

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

58

L'approche finale est résumée dans l'algorithme évolutionnaire Adaboost montré dans l'algorithme 1.

Cet algorithme est utilisé pour apprendre toutes les étapes de la cascade de détection.

Cet algorithme utilise itérativement un algorithme génétique pour minimiser l'erreur pondérée et pour instancier les paramètres d'un nouveau classificateur faible qui est ajouté à l'ensemble final.

59

Algorithme 1: 60

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

61

Une fois un objet trouvé, nous devons le classer parmi un grand nombre de classes.

En ce sens, ECOCs représentent une technique de classification qui permet la combinaison des classificateurs de base pour résoudre le problème multi-classes.

62

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

63

La conception d'un ECOC est basée sur un codage et une stratégie de décodage, où le codage à pour objectif d’assigner un codeword à chacune des classes Nc (jusqu'à mots de code Nc), et le décodage vise à attribuer une étiquette de classe à un nouveau test de codeword .

Codeword - est une séquence de bits qui

représente une classe.

64

Fig.10 « Traffic Sign Recognition using Evolutionary Adaboostdetection and Forest-ECOC classification », page 4, [1]

Les distances communes à décoder sont la Hamming et les distances euclidiennes

65

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

66

fait en sorte que la séparation de codeword optimal est sacrifiée en faveur d'une amélioration de la discrimination de classe dans les partitions. La création de l'ensemble de séparation hiérarchique est effectuée en utilisant un arbre binaire. En conséquence, une matrice compacte à haut pouvoir de discrimination est obtenue.

67

Algorithme 2. Entraînement de Forest-ECOC68

Fig.11 « Traffic Sign Recognition using Evolutionary Adaboost detection and Forest-ECOC classification », page 5, [1]

69

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

70

Fig.12 « Traffic Sign Recognition using Evolutionary Adaboostdetection and Forest-ECOC classification », page 5, [1]

71

Le système de cartographie mobile possède une paire stéréo de caméras calibrées, qui sont synchronisés avec un système GPS. Par conséquent, le résultat de l'étape d'acquisition est un ensemble de couples stéréoscopiques d'images avec leur position et de l'information d'orientation.

72

Fig.13 « Traffic Sign Recognition using Evolutionary Adaboostdetection and Forest-ECOC classification », page 7, [1]

73

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

74

Les auteurs ont exécuté le processus d'apprentissage au cours du même entraînement et test 50 fois, en utilisant 50 itérations de l'Adaboost évolutive.

Dans le cas de l'algorithme génétique, ils ont calculé la valeur d'erreur moyenne sur tous les tours pour chaque itération.

75

Fig.14 « Traffic Sign Recognition using Evolutionary Adaboostdetection and Forest-ECOC classification », page 7, [1]

76

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

77

Les auteurs ont présenté une méthode de calcul faisable pour la sélection de caractéristiques basée sur une stratégie évolutive. Depuis la recherche exhaustive sur toutes les combinaisons entre caractéristiques et le seuil(threshold) sont remplacées par l'approche

évolutionniste et caractéristiques ordinales.

L'approche finale a deux avantages principaux:

1. Elle accélère le processus d'apprentissage et permet de travailler avec de grands ensembles de caractéristiques et de distinguer entre l'objet et le plan-arrière, dont le calcul est impossible en utilisant les méthodes traditionnelles en raison du nombre énorme de caractéristiques.

2. Elle propose la stratégie de classification Forest-CECpour résoudre le problème de la catégorisation multi-classes.

78

1.Introduction

2.Détectiona. Architecture de détection

b. Dipôles dissociés

c. « Evolutive Adaboost »

d. Classificateur faible

e. Algorithme d'apprentissage

3.Classification: Forest-ECOCa. « Error Correcting Output Codes »

b. « Forest-ECOC »

4.Système de reconnaissance de signes de circulation

5.Résultats

6.Conclusion

7.Références

79

[1] « Traffic Sign Recognition using Evolutionary Adaboost detection and Forest-ECOC classification », Xavier Baro, Sergio Escalera et al., Intelligent Transportation Systems, IEEE Transactions on (Volume:10 , Issue: 1 ), pages: 113-126, March 2009;

URL: http://www.maia.ub.es/~sergio/files/Transport09.pdf

[2] « Combining Adaboost Learning and Evolutionary Search to select Features for Real-Time Object Detection », Andre Treptow and Andreas Zell, Evolutionary Computation, 2004. CEC2004. Congress on (Volume:2 ), pages: 2107-2113, June 2004;

URL: http://u-173-c140.cs.uni-tuebingen.de/mitarb/treptow/publications/treptow04-cec.pdf

[3] « An Extended Set of Haar-like Features for Rapid Object Detection», R. Lienhart and J. Maydt, Proc. of IEEE Conf. Image Processing, pages: 155–162, 2002;

URL: http://www.lienhart.de/Prof._Dr._Rainer_Lienhart/Source_Code_files/ICIP2002.pdf

[4] « Circulation et Signalisation routière reconnaissance », Hasan Fleyeh, July 2008;

URL: http://www.diva-portal.org/smash/get/diva2:523372/FULLTEXT01.pdf

[5] « Dissociated Dipoles: Image Representation via Non-local Comparisons », Benjamin J.Balas et Pawan Sinha, Massachusetts Institute of Technology — Artificial Intelligence laboratory, August 2003

URL: http://dspace.mit.edu/bitstream/handle/1721.1/7276/AIM-2003-018.pdf?sequence=2

[6] « Explaining AdaBoost », Robert E. Schapire, In Bernhard Schölkopf, Zhiyuan Luo, Vladimir Vovk, editors, Empirical Inference: Festschrift in Honor of Vladimir N. Vapnik, Springer, 2013

URL: https://www.cs.princeton.edu/~schapire/papers/explaining-adaboost.pdf

[7] La présentation « AdaBoost » de Jan Sochman, Jiri Matas, Center for Machine Perception

Czech Technical University, Prague

URL: http://cmp.felk.cvut.cz/~sochmj1/adaboost_talk.pdf

80

81

top related