WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Utilisation des Machines à Vecteurs de Support (SVM) pour la reconnaissance des chiffres manuscrits


par Rabah DIBOUNE
USTHB - ingénieur 2007
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Ré sultats exp érimentaux

3.1. Introduction

Dans ce chapitre, nous allons soumettre notre implémentation SVM avec l'algorithme SMO à deux types de tests: les tests binaires appliquées aux paires des chiffres les plus fréquemment confondus et les tests multi-classes Par l'approche un-contre-tous. Différents noyaux serons utilisées avec différents paramètres pour évaluer les performances des SVMs .

Figure 3.1.Représentation de la base USPS.

3.2. Critères d'évaluations

3.1.1. Base de données USPS (de l'anglais«US postal Service »)

L'USPS est une base de données de chiffres manuscrits extraits à partir d'enveloppes. La base de données contient 9298 images de chiffres manuscrits arabes dont 7291 images d'apprentissage servent à construire le classifieur et 2007 images de test servent à tester le classifieur et l'estimation de son taux d'erreur réel. Ces images ont été saisies à partir d'images d'enveloppes collectées au centre CEDAR à Buffalo (États Unis) [30]. Chaque image de chiffre est représentée par 16×16 pixels de niveau de gris allant de 0 à 255 (Tableau 3.1). Il est connu que l'ensemble de test d'USPS est plutôt difficile puisque l'erreur humaine se situe autour de 2.5% [13].

Etiquettes

0

1

2

3

4

5

6

7

8

9

 

Images

Tableau 3.1. Échantillon représentant la première dizaine d'images binarisées et leurs
étiquettes dans la base de données USPS

Dans ce mémoire, nous nous restreignons à la méthode SVM et aux images originales d'USPS. Une fraction de 500 images a été extraire à partir de 7291 pour servir a l'apprentissage et pour le test nous utilisons tous les prototypes (2007 image).

Pour évaluer la robustesse du classifieur, nous utilisons la matrice de confusion pour estimer le taux de bonne reconnaissance.

3.1.2. Matrice de confusion

Dans la terminologie de l'apprentissage supervisé, la matrice de confusion est un outil servant à mesurer la qualité d'un système de classification. [29].Par exemple, si on considère un système de classification dont le but est de classer des prototypes en classe1 et en classe2, on va vouloir savoir combien de prototypes seront faussement considérés comme du classe1 et combien de classe2 ne seront pas identifiés comme tels. On va supposer qu'on a testé notre classificateur avec 100 prototypes de classe 1 et 100 prototypes de classe2. Ainsi la matrice suivante se lit comme suit :

· sur les 100 prototypes de classe 1, 95 seront considérés comme tels et 5 seront pris pour du classe2 ;

· sur les 100 prototypes de classe2, 3 seront interprétés comme classe1, et 97 seront reconnus en tant que classe 1 ;

· sur les 98 prototypes que le système classe comme classe1, 3 sont en fait du classe2 ;

· sur les 102 prototypes que le système classe comme classe2, 5 sont en fait du classe 1.

· Taux global de bonne reconnaissance (TGBR) : (somme de prototypes bien classées (diagonale)/somme totale) * 100

· Dans cet exemple= ((95+97)/200)*100=96.00

Référence

Classe 1 95 5

Classe 2

Décision

Classe 1

3

Classe 2

97

Figure 3.2.Exemple d'une matrice de confusion

· les colonnes correspondent aux décisions correctes

· les lignes correspondent aux décisions données par le classifieur.

Cette notion peut bien sûr s'étendre à un nombre quelconque de classes. Un système de classification sera d'autant meilleur que sa matrice de confusion s'approchera de la matrice diagonale.

3.3. Apprentissage des SVMs

3.3.1. Réglage des paramètres

Nous avons utilisé pour l'apprentissage binaire et multiclasse les paramètres suivants :

3.3.1.1. Paramètre de régularisation C

La valeur du paramètre C est un hyper-paramètre qui régit la performance du SVM. Ce paramètre sert à fixer le compromis entre la minimisation de l'erreur d'apprentissage et la maximisation de la marge. En pratique, le comportement du SVM est sensible à la valeur de C uniquement si les données d'apprentissage ne sont pas séparables. Dans ce cas, il existe des valeurs critiques qui peuvent compromettre la performance du classifieur. Une très grande valeur de C (quelques milliers) peut faire que la fonction objective minimisée par le SVM ne soit plus convexe et empêcherait sa convergence. Une très faible valeur de C tend à diminuer la capacité du classifieur [20].

Dans ce travail, après quelques expériences, le paramètre C a été fixé à 100 car il offre les meilleures performances.

3.3.1.2 .Réglage des seuils de Tolérance et å (=eps) :

L'algorithme SMO est basé sur l'évaluation des conditions de KKT. Quand tous les multiplieurs vérifient ces conditions, l'algorithme s'arrête. En pratique ces conditions sont vérifiées à une erreur près å . Platt [21] a mentionné dans son article que å est typiquement choisi dans l'intervalle 10-2 et 10-3.

La maximisation de la marge doit être tolérée de l'ordre :10%, 0.1%..etc

Dans notre cas nous avons fixé å , et la tolérance a 1 0-3 .

3.3.2. Choix du noyau

Quatre noyaux ont été utilisés dans notre travail :

· Polynomial

· RBF (Radial Basis Function)

· Distance négative

· KMOD : (de l'anglais «Kernel with Moderate Decreasing») 3.4. Classification binaire

3.4.1. Choix des pairs de classes

Dans cette expérimentation, nous voulons expérimenter la performance des SVMs pour séparer deux classes les plus fréquemment confondus.Ces classes correspondant aux paires (9,4), (5,6) et (7,1).

3.4.2. Evaluations

Pour évaluer l'influence du paramètre de chaque noyau sur la qualité de la classification, nous avons calculé le taux de bonne classification pour chaque paire de classes .Les résultats sont présentés dans les tableaux suivants :

p=1

classe 9

classe4

classe 9

94.91

5.09

classe 4

3.5

96.5

 

a =3

classe 9

classe4

classe 9

94.91

5.08

classe 4

3.5

96.5

 

y = 0.2

classe 9

classe4

classe 9

96.04

3.95

classe 4

3

97

 

p=2

classe 9

classe4

classe 9

95.48

4.52

classe 4

4

96

(a)

a=10

classe 9

classe4

classe 9

96.04

3.95

classe 4

4

96

 

(b)

y=0.1

classe 9

classe4

classe 9

96.61

3.38

classe 4

4.5

95.50

(c)

p=3

classe 9

classe4

classe 9

96.04

3.95

classe 4

3.5

96.5

a =25

classe 9

classe4

classe 9

94.91

5.08

classe 4

3.5

96.5

y = 0.05

classe 9

classe4

classe 9

96.04

3.95

classe 4

4.5

95.5

a =6

et
y=0.2

classe 9

classe4

classe 9

95.48

4.51

classe 4

2.5

97.5

a =6

et
y=0.5

classe 9

classe4

classe 9

96.04

3.95

classe 4

3.50

96.50

(d)

Noyau

RBF

polynomial

Distance négative

KMOD

 
 
 
 
 
 

p=3

 
 
 

a=6

a=6

classe

a=3

a=10

a=25

p=1

p=2

 

y=0.2

y=0.1

y=0.05

et

et

 
 
 
 
 
 
 
 
 
 

y=0.5

y=0.2

9

94.91

96.04

94.91

94.91

95.48

96.04

96.04

96.61

96.04

96.04

95.48

4

96.50

96.00

96.50

96.50

96.00

96.50

97.00

95.50

95.50

96.50

97.50

TGBR

95.75

96.02

95.75

95.75

95.75

95.75

96.55

96.02

95.75

96.28

96.55

Tableau 3.2.Matrices de confusion pour les paires de classes (9 ,4) pour chaque type de noyau (a) Polynomial (b) RBF (c) Distance négative (d) KMOD

p=1

classe 5

classe6

classe 5

98.12

1.87

classe 6

5.29

94.70

a =3

classe 5

classe6

classe 5

98.75

1.25

classe 6

4.70

95.29

y = 0.2

classe 5

classe6

classe 5

98.75

1.25

classe 6

4.70

95.29

p=2

classe 5

classe6

classe 5

98.12

1.87

classe 6

4.70

95.29

(a)

a=10

classe 5

classe6

classe 5

98.12

1.87

classe 6

4.12

95.88

 

(b)

y=0.1

classe 5

classe6

classe 5

98.12

1.87

classe 6

5.29

94.70

(c)

p=3

classe 5

classe6

classe 5

99.37

0.62

classe 6

7.05

92.94

a =25

classe 5

classe6

classe 5

98.12

1.87

classe 6

4.7

95.29

y = 0.05

classe 5

classe6

classe 5

98.12

1.87

classe 6

4.11

95.88

a =6

et
y=0.2

classe 5

classe6

classe 5

98.75

1.25

classe 6

3.52

96.47

a =6

et
y=0.5

classe 5

classe6

classe 5

98.75

1.25

classe 6

3.52

96.47

p=1

classe 7

classe1

classe 7

99.31

0.68

classe 1

2.27

97.72

p=2

classe 7

classe1

classe 7

99.31

0.68

classe 1

2.65

97.34

(a)

p=3

classe 7

classe 1

classe 7

100

0

classe 1

2.65

97.34

(d)

Noyau

RBF

polynomial

Distance négative

KMOD

 
 
 
 
 
 

p=3

 
 
 

a=6

a=6

classe

a =3

a =10

a =25

p=1

p=2

 

y = 0.2

y = 0.1

y = 0.05

et

et

 
 
 
 
 
 
 
 
 
 

y=0.5

y=0.2

5

98.75

98.12

98.12

98.12

98.12

99.37

98.75

98.12

98.12

98.75

98.75

6

95.29

95.88

95.29

94.70

95.29

92.94

95.29

94.70

95.88

96.47

96.47

TGBR

96.96

96.96

96.66

96.36

96.66

96.06

96.96

96.36

96.96

97.57

97.57

Tableau 3.3.Matrices de confusion pour les paires de classes (5 ,6) pour chaque type de noyau (a) Polynomial (b) RBF (c) Distance négative (d) KMOD

a=3

classe 7

classe1

classe 7

100

0

classe 1

3.40

96.59

a=10

classe 7

classe1

classe 7

99.31

0.68

classe 1

2.66

97.34

a=25

classe 7

classe1

classe 7

99.31

0.68

classe 1

2.65

97.34

y=0.2

classe 7

classe1

classe 7

99.31

0.68

classe 1

3.40

96.59

(b)

y=0.1

classe 7

classe1

classe 7

99.31

0.68

classe 1

3.40

96.59

(c)

y=0.05

classe 7

classe1

classe 7

99.31

0.68

classe 1

3.40

96.59

a =6

et
y=0.2

classe 7

classe1

classe 7

100

0

classe 1

3.40

96.59

a =6
et

classe 7

classe1

y=0.5

 
 

classe 7

100

0

classe 1

3.40

96.59

(d)

Noyau

RBF

polynomial

Distance négative

KMOD

 
 
 
 
 
 

p=3

 
 
 

a=6

a=6

classe

a =3

a =10

a =25

p=1

p=2

 

y = 0.2

y = 0.1

y = 0.05

et

et

 
 
 
 
 
 
 
 
 
 

y=0.5

y=0.2

7

100

99.31

99.31

99.31

99.31

100

99.31

99.31

99.31

100

100

1

96.59

97.34

97.34

97.72

97.34

97.34

96.59

96.59

96.59

96.59

96.59

TGBR

97.81

98.05

98.05

98.29

98.05

98.29

97.56

97.56

97.56

97.81

97.81

Tableau 3 .4.Matrices de confusion pour les paires de classes (7 , 1) pour chaque type de noyau (a) Polynomial (b) RBF (c) Distance négative (d) KMOD

3.4.3. Comparaison des résultats et discussions

Noyau

RBF

Polynomial

Distance négative

KMOD

pairs

a=3

a=10

a=25

p=1

p=2

p=3

y=0.2

y=0.1

y=0.05

a=6

a=6

 
 
 
 
 
 
 
 
 
 

et

et

 
 
 
 
 
 
 
 
 
 

y=0.5

y=0.2

(9,4)

95.75

96.02

95.75

95.75

95.75

95.75

96.55

96.02

95.75

96.28

96.55

(5,6)

96.96

96.96

96.66

96.36

96.66

96.06

96.96

96.36

96.96

97.57

97.57

(7,1)

97.81

98.05

98.05

98.29

98.05

98.29

97.56

97.56

97.56

97.81

97.81

Tableau 3.5.Taux global de bonne reconnaissance pour les trois paires de classes (9,4), (7,1) et (5,6).

D'une manière générale, les résultats obtenus sont sensiblement similaires en termes de bonne classification .Cependant, l'analyse comparative montre que le choix du noyau dépend des paires de classes et des paramètres utilisés. En effet nous avons constaté que les noyaux KMOD et Distance négative ont les mêmes performances pour la paire (9,4) .Tandis que le noyau Polynomial fournit le meilleurs taux pour la paire(7,1) .Pour la paire (5,6) le noyau KMOD fournit le meilleurs taux de bonne reconnaissance.

3.5. Classification multi classe

3.5.1. Evaluations

Dans cette section, nous évaluons la classification multi-classe en utilisant l'approche un contre tous pour les différents noyaux et différents paramètres des noyaux.

Les matrices de confusion sont reportées dans les tableaux suivants :

ó =3

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

92.75

0

2.50

0.27

1.39

0.55

0.83

0.27

1.39

0

un

0

93.18

0.75

0

3.40

0

1.51

0

1.13

0

deux

1.01

0

84.34

2.02

3.53

1.51

1.01

0.50

6.06

0

trois

1.20

0

3.61

80.12

0.60

7.83

0

0

6.02

0.60

quatre

0

0.50

3.00

0

85.50

0

1.00

0.50

3.00

6.50

cinq

2.50

0

1.25

5.00

1.87

82.50

0

0

5.00

1.87

six

2.35

0

4.70

0

1.76

3.52

86.47

0

1.17

0

sept

0

0

2.04

0.68

6.12

0

0

80.27

4.08

6.80

huit

1.80

0

1.80

0

1.20

3.61

0

0

90.96

0.60

neuf

0

0

0.56

0

3.38

0

0

0.56

2.25

93.22

TGBR

 

87.84

Tableau 3 .6.Matrice de confusion de la classification multi classe pour le noyau RBF (ó =3)

ó =10

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

89.69

0

5.01

1.39

1.39

1.11

0.27

0

0.27

0.83

un

0

95.07

0.37

0

3.40

0

0.37

0

0.37

0.37

deux

1.51

0

80.30

3.53

7.07

2.02

0.50

0.50

4.54

0

trois

1.20

0

3.01

83.73

1.20

3.61

0

0

3.61

3.61

quatre

0.50

0.50

2.00

0

87.00

0.50

0.50

1.00

3.00

5.00

cinq

2.50

0

3.12

10.62

3.12

73.75

0.62

1.25

3.75

1.25

six

2.35

0

7.05

0

4.11

6.47

77.64

0.58

1.17

0.58

sept

0.68

0

2.72

2.72

6.12

0

0

79.59

1.36

6.80

huit

3.01

1.20

2.40

3.61

5.42

4.81

0

1.80

74.09

3.61

neuf

0

0

0.56

0

6.21

0.56

0

1.12

2.25

89.26

TGBR

 

84.35

Tableau 3 .7.Matrice de confusion de la classification multi classe le noyau RBF (ó = 10)

ó =25

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

90.25

0

3.89

1.94

1.39

0.27

0.83

0

1.11

0.27

un

0

95.83

0

0.75

1.89

0

1.13

0

0.37

0

deux

2.02

0

78.78

7.07

6.56

1.01

0.50

0.50

3.53

0

trois

2.40

0

2.40

86.14

1.20

4.81

0

0

2.40

0.60

quatre

0

1.5

3

0

86.00

0

1.00

0

4.50

4.00

cinq

1.87

0.62

5.00

12.50

1.87

72.50

0.62

0

3.75

1.25

six

2.35

0

7.64

0

3.52

3.52

81.17

0

1.76

0

sept

0.68

0.68

2.04

2.72

6.80

0

0

74.82

7.72

9.52

huit

3.61

1.80

3.01

3.61

4.21

2.40

0

1.20

78.91

1.20

neuf

0

1.12

1.12

1.12

5.64

1.12

0

0.56

2.25

87.00

TGBR

 

84.55

Tableau 3.8.Matrice de confusion de la classification multi classe le noyau RBF (ó =25)

P=1

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

89.41

0

3.89

0.55

1.11

2.78

1.11

0.55

0.55

0

un

0

95.07

0

0

2.27

0

1.51

0.37

0.75

0

deux

1.01

0

72.72

2.52

8.08

2.52

4.04

3.03

6.06

0

trois

1.80

0

3.01

68.07

0.60

13.25

0.60

1.20

9.03

2.40

quatre

0.50

1.00

1.00

0

81.50

3.50

1.50

2.50

4.50

4.00

cinq

3.75

0

0

5

1.25

83.75

0

2.5

2.5

1.25

six

2.35

0

2.35

0

2.94

7.64

82.35

0.58

1.76

0

sept

1.36

0

1.36

0.68

3.40

1.36

0

87.07

1.36

3.40

huit

4.21

0

0.60

0.60

3.61

9.63

0

2.40

77.10

1.80

neuf

0

0.56

1.12

0

5.64

2.25

0

5.08

6.77

78.53

TGBR

 

82.76

Tableau 3.9.Matrice de confusion de la classification multi classe pour le noyau Polynomial (p=1)

P=2

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

89.97

0

3.06

0.83

1.67

2.78

1.11

0

0.55

0

un

0

95.45

0

0

3.03

0

1.13

0

0.37

0

deux

1.51

0

73.23

3.03

7.57

2.52

4.04

1.01

7.07

0

trois

3.61

0

2.40

73.49

0.60

10.24

0

0

8.43

1.20

quatre

0.50

1.00

1.50

0

83.50

1.50

1.50

0

3.00

7.50

cinq

3.12

0

0.62

5.00

1.87

85.00

0

0.62

2.50

1.25

six

0.58

0

2.35

0

3.52

8.82

82.35

0

2.35

0

sept

0

0

2.04

0.68

4.76

1.36

0

78.23

2.04

10.88

huit

3.61

1.20

0

1.20

2.40

9.63

0

1.20

78.91

1.80

neuf

0

0.56

0.56

0

5.08

1.69

0

0.56

3.95

87.57

TGBR

 

84.01

Tableau 3.1 0.Matrice de confusion de la classification multi classe pour le noyau Polynomial (p=2)

P=3

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

92.47

0

2.50

1.11

1.39

0.55

0.83

0.27

0

0.83

un

0

95.83

0

0

2.65

0

1.13

0

0.37

0

deux

2.02

0

77.27

3.53

6.56

1.51

4.04

1.51

3.53

0

trois

2.40

0

2.40

80.12

0.60

6.02

0.60

0

4.21

3.61

quatre

1.00

1.00

2.00

0

82.50

1.00

1.50

1.00

2.00

8.00

cinq

1.87

0

1.25

9.37

1.87

79.37

0.62

1.25

1.87

2.5

six

2.35

0

2.35

0

4.70

3.52

85.88

0.58

0.58

0

sept

0

0

2.04

0.68

4.08

1.36

0

82.99

0.68

8.16

huit

4.81

0.60

1.80

1.80

4.21

7.83

0.60

2.40

71.08

4.81

neuf

0

0.56

0.56

0

3.38

1.12

0

0.56

2.25

91.52

TGBR

 

85.25

Tableau 3.11 .Matrice de confusion de la classification multi classe pour le noyau Polynomial (p=3)

ã=0.2

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

93.31

0

3.34

0.27

1.11

0.27

0.83

0.83

0

0

un

0

95.83

0

0

2.27

0

1.51

0.37

0

0

deux

1.51

0

86.86

2.52

3.53

1.51

1.01

2.02

1.01

0

trois

1.80

0

3.61

86.74

0.60

5.42

0.60

0

0

1.20

quatre

0

1.50

5.00

0

85.50

0

1.00

2.50

0

4.50

cinq

1.87

0

3.12

10.62

1.87

78.75

0.62

1.87

0

1.25

six

2.94

0

5.29

0

2.35

2.94

86.47

0

0

0

sept

0.68

0.68

2.72

0.68

3.40

0

0

88.43

0

3.40

huit

2.40

1.80

6.62

8.43

7.83

8.43

0

3.61

56.02

4.81

neuf

0.56

0.56

1.12

0.56

5.64

0.56

0

3.38

6.77

78.53

TGBR

 

86.00

Tableau 3.1 2.Matrice de confusion de la classification multi classe pour le noyau KMOD ã =0.2 et ó =6

ã =0.5

zéro

Un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

93.87

0

1.67

0.55

1.11

0.55

0.55

0.55

0

1.11

un

0

93.81

0

1.13

1.89

0

2.27

0.37

0

1.13

deux

2.52

0

78.28

5.05

5.55

2.02

1.51

2.52

2.02

0.50

trois

1.20

0

2.40

87.34

0.60

6.02

0

0

0

2.40

quatre

0.50

0.50

2.50

0

81.50

1.00

1.00

2

0

10.00

cinq

2.50

0

1.25

8.75

1.87

80.62

0

1.87

0.62

2.50

six

3.52

0

3.52

0

2.35

4.70

85.88

0

0

0

sept

0

0

0.68

0.68

3.40

0

0

89.79

0

5.44

huit

4.81

0

0.60

7.22

4.21

8.43

0

3.01

63.25

8.43

neuf

0.56

0

0.56

0

2.25

0.56

0

2.25

0

93.78

TGBR

 

85.89

Tableau 3.13 .Matrice de confusion de la classification multi classe pour le noyau KMOD ã =0.5 et ó =6

ã=0.2

zéro

un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

90.25

0

1.94

0.83

1.39

3.06

1.67

0

0.83

0

un

0

93.93

0

0

2.27

0

1.51

0

1.51

0.75

deux

2.02

0

68.68

3.03

7.57

2.02

3.53

1.01

12.12

0

trois

2.40

0

1.20

75.90

1.20

5.42

0.60

0.60

10.24

2.40

quatre

1.00

0.50

0.50

0

84.00

0

3.00

1.00

5.00

5.00

cinq

3.12

0

1.25

10

3.12

74.37

0

1.25

5.00

1.87

six

0.58

0

1.17

0

2.94

7.64

85.29

0

2.35

0

sept

0.68

0

1.36

1.36

4.76

0

0

82.31

4.08

5.44

huit

3.01

0

0

1.80

0.60

3.61

0

0

90.36

0.60

neuf

0

0.56

0

0

3.95

1.12

0

0.56

8.47

85.31

TGBR

 

84.10

Tableau 3.14.Matrice de confusion de la classification multi classe pour le noyau Distance négativeã =0.2

ã=0.1

zéro

un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

91.36

0

3.62

0.55

1.11

0.27

2.22

0

0.27

0.55

un

0

95.45

0

0

2.27

0

1.51

0

0

0.75

deux

1.51

0

77.27

4.04

6.06

1.51

4.04

2.02

3.03

0.50

trois

2.40

0

1.20

77.10

2.40

7.22

0.60

1.20

3.01

4.81

quatre

0.50

0.50

1.50

0

82.00

0

4.00

0.50

1.00

10.00

cinq

4.37

0

2.50

12.50

3.12

71.25

0.62

0.62

2.50

2.50

six

1.17

0

2.35

0

2.94

5.29

87.64

0

0.58

0

sept

0

0

1.36

0

4.08

0

0

87.07

0.68

6.80

huit

5.42

1.80

3.61

1.80

4.21

7.83

0

1.20

71.08

3.01

neuf

0

0

0.56

0

3.38

0.56

0

1.12

1.12

93.22

TGBR

 

84.65

Tableau 3. 15.Matrice de confusion de la classification multi classe pour le noyau Distance négative ã=0.1

ã =0.05

zéro

un

deux

trois

quatre

cinq

six

sept

huit

neuf

 

zéro

92.75

0

1.39

0.83

1.11

0.27

2.22

0.55

0.27

0.55

un

0

93.93

0

0.75

1.51

0

3.03

0

0

0.75

deux

2.52

0

69.19

7.57

7.07

1.01

6.06

3.03

3.03

0.50

trois

1.80

0

1.20

86.74

0.60

3.61

0.60

1.80

0.60

3.01

quatre

1.00

0.50

1.00

0

84.00

0

3.00

1.50

0.50

8.50

cinq

4.37

0

1.25

13.12

2.50

75.00

0

1.25

0

2.50

six

2.35

0

0

0.58

2.94

5.29

88.82

0

0

0

sept

0.68

0

1.36

0.68

4.08

0

0

89.11

0

4.08

huit

4.81

0.60

0.60

7.83

7.22

7.22

0.60

1.20

66.26

3.61

neuf

0.56

0

0.56

0

5.64

1.12

0

1.69

0.56

89.83

TGBR

 

84.75

Tableau 3.16.Matrice de confusion de la classification multi classe pour le noyau Distance négative ã=0.05

3.5.2. Comparaison des résultats et discussions

noyau

RBF

polynomial

Distance négative

KMOD

classe

 
 
 
 
 
 
 
 
 

ã = 0.5

ã = 0.2

 

ó=3

ó=10

ó=25

p=1

p=2

p=3

ã=0.2

ã=0.1

ã=0.05

ó=6

ó=6

0

92.75

89.69

90.25

89.41

89.97

92.47

90.25

91.36

92.75

93.87

93.31

1

93.18

95.07

95.83

95.07

95.45

95.83

93.93

95.45

93.93

93.18

95.83

2

84.34

80.30

78.78

72.72

73.23

77.27

68.68

77.27

69.19

78.28

86.86

3

80.12

83.73

86.14

68.07

73.49

80.12

75.90

77.10

86.74

87.34

86.74

4

85.50

87.00

86.00

81.50

83.50

82.50

84.00

82.00

84.00

81.50

85.50

5

82.50

73.75

72.50

83.75

85.00

79.37

74.37

71.25

75.00

80.62

78.75

6

86.47

77.64

81.17

82.35

82.35

85.88

85.29

87.64

88.82

85.88

86.47

7

80.27

79.59

74.82

87.07

78.23

82.99

82.31

87.07

89.11

89.79

88.43

8

90.96

74.09

78.91

77.10

78.91

71.08

90.36

71.08

66.26

63.25

56.02

9

93.22

89.26

87.00

78.53

87.57

91.52

85.31

93.22

89.83

93.78

87.57

TGBR

87.84

84.35

84.55

82.76

84.01

85.25

84.10

84.65

84.75

85.89

86.00

Tableau 3. 17.Résumé des résultats pour la classification multi classe

Globalement, les taux de bonne reconnaissance sont sensiblement similaires. Cependant, nous constatons que le choix du noyau et ses paramètres influent sur le taux de bonne de reconnaissance .Le noyau RBF pour ó =3 semble fournir les meilleurs taux de bonne de reconnaissance comparativement aux autres noyaux. L'examen du taux de bonne de reconnaissance pour chaque classe montre qu'il n'existe pas un noyau plus favorable .En fait les résultats obtenus dépendent des classes.

Nous présentons dans les figures suivantes le taux de bonne de reconnaissance pour chaque classe et pour différentes valeurs du paramètre du noyau.

Figure 3.3.Taux de bonne reconnaissance (%) pour chaque classe pour différents valeurs du
paramètre du noyau RBF.

Figure 3.4.Taux de bonne reconnaissance (%) pour chaque classe pour différents valeurs du
paramètre du noyau Polynomial.

Chapitre 3 Résultats expérimentaux

Y Y

Figure 3.5.Taux de bonne reconnaissance (%) pour chaque classe pour différents valeurs du
paramètre du noyau KMOD (a =6)

Y Y Y

Figure 3.6.Taux de bonne reconnaissance (%) pour chaque classe pour différents valeurs du
paramètre du noyau Distance négative

3.6. Comparaison classification binaire et multi-classe

L'analyse comparative entre la classification binaire et la classification multi-classe montre que le taux de bonne reconnaissance pour la classification binaire est meilleur quelques soit le noyau utilisé comparativement à la classification multi-classe. Cela peut se justifier par le fait que le classifieur SVM a beaucoup plus de difficultés à séparer une classe des autres classes comparativement à la classification binaire.

3.7. Présentation de la plateforme

Nous présentons dans cette section la plate forme de reconnaissance de chiffres manuscrits implémentés sous environnement Matlab .Les différentes fonctions implémentés sont décrits dans les sous- sections suivants.

3.7.1. Fenêtre principale

La fenêtre principale est composée (voir figure3.7) de trois menus :

· Fichier,

· Apprentissage

· Test.

Figure 3.7. Fenêtre principale

3.7.2 Menu

3.7.2.1. Sélection des fichiers (voir figure3.8) Le menu Fichier contient trois rubriques :

> Ouvrir la base d 'apprentissage : permet de sélectionner le fichier sur lequel porte l'apprentissage des SVMs .La sélection porte sur (voir figure3.9) :

· Le nom du fichier de données

· Le nom du fichier des classes

· Nombres d'images

· Hauteur de l'image

· Largeur de l'image

> Ouvrir la base de test : permet d'ouvrir la base de test et les classes correspondantes

>

Figure 3.8. Rubriques de menu Fichier

Figure 3.9. Exemple de chargement de la base d'apprentissage.

Fermer : sert à quitter la plateforme.

3.7.2.2. Sélection des paramètres pour l'apprentissage (voir figure3.10) Le menu Apprentissage contient deux rubriques :

> Svm multiclasse : permet de faire la classification multi-classe par le choix du noyau et le réglage de ses paramètres (figure3.11)

> Svm biclasse : permet de faire la classification bi-classe entre deux classes choisis en sélectionnant le noyau et ses paramètres (figure3.12).

Figure 3.10. Rubriques de menu Apprentissage.

Figure 3.11. Exemple de choix de noyau et les paramètres pour la classification multiclasse

Figure 3.12. Exemple de choix de noyau et réglage des paramètres avec possibilité de
sélectionner deux classes pour la classification biclasse.

3.7.2.3. Evaluation de la classification (voir figure 3.13)

Le menu Test contient deux rubriques :

> Test binaire : permet d'afficher la matrice de confusion et la précision globale pour la classification biclasse.

> Test multi : permet pour la classification multiclasse :

+ De calculer la matrice de confusion et la précision globale (voir figure 3.14).

+ D'afficher le taux de bonne reconnaissance de déférentes classes avec leur graphe (voir figure 3.15).

+ D'afficher le taux de bonne reconnaissance de déférentes classes sous forme d'une matrice de confusion et graphique avec la précision globale. (voir figure 3.16).

+ De récapituler tous les résultats obtenus avec les paramètres utilisés et d'afficher le temps d'apprentissage et le temps de test (voir figure 3.17).

Figure 3.13. Rubriques de menu Test.

Figure 3.14.Matrice de confusion avec précision globale.

Figure 3.15. Taux de bonne reconnaissance pour chaque classe représenté sous forme
graphique

Figure 3.16. Taux de bonne reconnaissance pour déférentes classes représenté sous forme
d'une matrice de confusion et graphique.

Figure 3.1 7.Résumé des résultats

3.8. Conclusion

Ce chapitre a été consacré à l'évaluation du classifieur SVM pour la reconnaissance des chiffres manuscrits. Les résultats obtenus montrent que la qualité de la reconnaissance dépend du choix du noyau et du réglage de ses paramètres.

Par ailleurs, nous avons pu constater que la séparation bi-classe permet de séparer plus facilement deux classes que de séparer une classe des autres classes.

précédent sommaire suivant










Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy



"Et il n'est rien de plus beau que l'instant qui précède le voyage, l'instant ou l'horizon de demain vient nous rendre visite et nous dire ses promesses"   Milan Kundera