presentation egc2012v2final

18
Combinaison de classification supervisée et non-supervisée par la théorie des fonctions de croyance Fatma Karem (1) Mounir Dhibi (1) Unité de Recherche PMI 09/UR/13-0, Campus Universitaire Zarouk Gafsa 2112, Tunisie Arnaud Martin (2) Université de Rennes 1, UMR 6074 IRISA, Rue Edouard Branly BP 30219, 22302 Lannion Cedex, France 18/06/2022 1 Combinaison du supervisé et non supervisé

Upload: fatmakarem

Post on 11-Jun-2015

233 views

Category:

Documents


3 download

DESCRIPTION

présentation EGC2012 Bordeaux France

TRANSCRIPT

Page 1: Presentation egc2012v2final

Combinaison de classification supervisée et non-supervisée par la théorie des fonctions

de croyance

Fatma Karem(1)

Mounir Dhibi(1)

Unité de Recherche PMI 09/UR/13-0, Campus Universitaire Zarouk Gafsa 2112, Tunisie

Arnaud Martin(2)

Université de Rennes 1, UMR 6074 IRISA, Rue Edouard Branly BP 30219, 22302 Lannion Cedex, France

13/04/2023 1Combinaison du supervisé et non

supervisé

Page 2: Presentation egc2012v2final

PLAN

Problématique

Fusion de classifeurs

Théorie de fonction de croyance

Approche Proposée

Résultats

Conclusion et Perspectives

13/04/2023Combinaison du supervisé et non

supervisé2

Page 3: Presentation egc2012v2final

Multitude des méthodes: laquelle choisir ?

Incertitude liée aux données manipulées : données fausses parfois, données manquantes

Solution possible : combinaison entre le non supervisé et le supervisé

Quelle méthode choisir en fonction des données Manipulées ???

Comment choisir les paramètres des méthodeschoisies ???

Problématique (1/2)

13/04/2023Combinaison du supervisé et non

supervisé3

Page 4: Presentation egc2012v2final

Exploiter la complémentarité des deux approches

Réduction des problèmes liés au choix des paramètres surtout pour le clustering

Réduction des problèmes liés à l'apprentissage

Comment fusionner ???

Approche:

Tenant compte de l'aspect d'incertitude et d'imprécision liés à notre problématique

Traitant le conflit entre les deux types de méthodes

Problématique (2/2)

Combinaison du supervisé et non supervisé

13/04/2023 4

Page 5: Presentation egc2012v2final

Fusion (1/1) Combinaison des informations issues des sources imparfaites afin d'améliorer la prise de décision en tenant compte des imprécisions et incertitude Combinaison des informations issues des sources imparfaites pour apparaître des conflits Comment traiter ces imperfections ??

Suppression Tolérance Modélisation

Solution la plus adéquate : modélisation

Théories de l'incertain

Exemples : théorie des probabilités (approche bayésienne), théorie des possibilités, théorie des fonctions de croyance(Dempster-Shafer)

Combinaison du supervisé et non supervisé

13/04/2023 5

Page 6: Presentation egc2012v2final

Principe  : La théorie manipule des fonctions définies sur des sous-ensembles (non des singletons comme en théorie des probabilités) à valeurs dans [0,1]

Modélisation

Cadre de discernement : Ө = {θi , i=1,…,n} où θi sont les classes/ hypothèses exclusives et exhaustives

Les fonctions de croyance sont définies sur 2Ө où Ө représente l’ignorance et l’ouverture au monde hors Ө.

Avec A un élement focal si m(A)>0

Théorie des fonctions de croyance (1/2)

m(.) : 2θ → 0,1[ ] m(∅ ) = 0 et m(A) =1A∈2θ∑

Combinaison du supervisé et non supervisé

13/04/2023 6

Page 7: Presentation egc2012v2final

Croyance en A

Masse totale d’information impliquant l’occurrence de A

Plausibilité de A

Masse totale d’information consistante avec A

En général :

0 ≤ Bel(A) ≤ Pl(A) ≤1€

Pl(A) = m(B)B∈2θ ,B∩A≠∅

∑€

Bel(A) = m(B)B∈2θ ,A⊆A

Combinaison du supervisé et non supervisé

13/04/2023

Théorie des fonctions de croyance (2/2)

7

Page 8: Presentation egc2012v2final

Approche Proposée (1/3)

ClusteringClassificatio

n supervisée

Base d’apprentissage

Fusion

Prise de décision

Comment trouver un

Consensus entreles deux

Combinaison du supervisé et non supervisé

13/04/2023 8

Page 9: Presentation egc2012v2final

Classification non-

supervisée

Classification supervisée

clusters

classes

Source 1

Source 2

mSmNS Combinaiso

n

Prise de décision

Décision finale

Dégager à quelle classe appartient

chaque objet

Approche Proposée (2/3)

Combinaison du supervisé et non supervisé

13/04/2023 9

Page 10: Presentation egc2012v2final

Il faut modéliser nos croyances aux classes dégagées par le supervisé?

Classification non-supervisé

Classification supervisé

Calcul de similarité entre clusters et

classes par recouvrement

Modèle probabiliste d’Appriou

Combinaison par conjonction

Etape 1

Etape 2

Etape 3Prise de décision

Adoption du critère de probabilité pignistique

Approche Proposée (3/3)

Combinaison du supervisé et non supervisé

13/04/2023 10

Page 11: Presentation egc2012v2final

Fonctionnement

calcul des fonctions de masses des deux côtés non-supervisé et supervisé

C1

C2

C3

C4

C3

ClassificationClustering

C1

C5

C4

C3

C2

C6

Calcul de recouvrement

Calcul des masses pour du côté non-supervisé

Combinaison du supervisé et non supervisé

13/04/2023 11

Page 12: Presentation egc2012v2final

Calcul de recouvrement C1

C4

C3

C2

C6

Avec Q={ ,i=1,…..M} : ensemble des classes trouvés par le supervisé

Et C={ ,i=1,…..n} : ensemble des clusters trouvés par le non-supervisé

Calcul des fonctions de masses du côté non-

supervisé (1/2)

Combinaison du supervisé et non supervisé

13/04/2023 12

mNS (qM )(x) =Ci∩qMCi

mNS (q1)(x) =Ci∩q1Ci

mNS (qm )(x) =Ci∩qmCi

Page 13: Presentation egc2012v2final

Avec qj la classe affectée par le classifieur supervisé au point x qi la classe réelle, le coefficient de fiabilité de la classification supervisée pour la classe qi

Calcul des fonctions de masses du côté non-

supervisé (2/2)

Combinaison du supervisé et non supervisé

13/04/2023 13

mij (q j )(x) =α ijR jP (q i q j )

1+ R jP(qi q j )

mij (q jc )(x) =

α ij

1+ R jP(qi q j )

mij (q jc )(x) =1−α ij

α ij

Page 14: Presentation egc2012v2final

Données Taux de bonne classification avant fusion

Taux de bonne classification après fusion

iris 97,33 100

Abalone 53,67 76,35

Breast-cancer 64,52 80

Haberman 75,17 100

Résultats expérimentaux (1/4)

Combinaison du supervisé et non supervisé

13/04/2023 14

Résultats obtenus pour K-PPV+FCM

Page 15: Presentation egc2012v2final

Données Taux de bonne classification avant fusion

Taux de bonne classification après fusion

iris 96 100

Abalone 52 79,80

Breast-cancer 96 100

Haberman 73,83 77,74Résultats obtenus pour Bayes+FCM

Combinaison du supervisé et non supervisé

13/04/2023 15

Résultats expérimentaux (2/4)

Page 16: Presentation egc2012v2final

Données Taux de bonne classification avant fusion

Taux de bonne classification après fusion

iris 97,33 100

Abalone 53,10 78,69

Breast-cancer 64,52 80

Haberman 75,17 99,34Résultats obtenus pour KPPV+Modèle de mélange

Combinaison du supervisé et non supervisé

13/04/2023 16

Résultats expérimentaux (3/4)

Page 17: Presentation egc2012v2final

Données Taux de bonne classification avant fusion

Taux de bonne classification après fusion

Iris 96 100

Abalone 52 82,45

Breast-cancer 96 100

Haberman 73,83 77,74Résultats obtenus pour Bayes + Modèle de

mélange

Combinaison du supervisé et non supervisé

13/04/2023 17

Résultats expérimentaux (4/4)

Page 18: Presentation egc2012v2final

13/04/2023Combinaison du supervisé et non

supervisé18

• Conclusions Cette approche originale fondée sur la théorie des fonctions de croyance permet de lever certaines ambiguïtés et de gérer les conflits

L’approche proposée a montré des résultats encourageantssur des données génériques

• Perspectives

Elargissement de la base de données Données manquantes Données mal-étiquettées Images réelles: images sonar, images médicales

Amélioration du mécanisme de fusion

Conclusion et Perspectives