WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Apprentissage sur des données académiques en vue de faciliter l'orientation et l'aide à  la décision


par Zelkifilou NJAMEN MOUNGNUTOU
Université de Douala - Master 2 recherche en informatique appliquée option SIS  2020
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.3.4.2 Construction d'un arbre de décision

Le but est de trouver le plus petit arbre qui respecte l'ensemble d'entraînement. Il ne s'agit pas uniquement de mémoriser les observations, il faut trouver un arbre qui est capable d'extrapoler des exemples qu'il n'a pas déjàvu.

L'arbre doit extraire des tendances ou des comportements à partir des exemples.

1. Il construit les arbres de décision de haut en bas.

2. Il place à la racine l'attribut le plus important, c'est-à-dire celui qui sépare le mieux les exemples positifs et négatifs.

3. Par la suite, il y a un nouveau noeud pour chacune des valeurs possibles de cet attribut.

4. Pour chacun de ces noeuds, on recommence le test avec le sous-ensemble des exemples d'entraînement qui ont étéclassés dans ce noeud.

2.3. LES ALGORITHMES DE MACHINE LEARNING CHAPITRE 2. REVUE DE LA LITTÉRATURE

Mémoire de Master II en Informatique 30 c~NJAMEN M. ZELKIF 2020-2021

2.3.4.3 Avantages des Arbres de Décision

· Non-linéarité
· Support des variables catégoriques

· Facile à interpréter

· Application à la régression

2.3.4.4 Inconvénients des Arbres de Décision

· Prone au sur-ajustement

· Instable (non robuste)


· Forte variance

Enfin, il est rare que les modèles d'apprentissage automatique utilisent un seul arbre de décision. Mais ils agrègent plusieurs pour obtenir ce que l ?on appelle une forêt d'arbres décisionnels ou forêts aléatoires.

2.3.5 Machines à vecteurs support SVM

Introduit par Vapnik en 1990, les machines à vecteurs de support sont des techniques d'apprentissage supervisédestinées à résoudre des problèmes de classification et de régression.

Ce modèle était toutefois linéaire et l'on ne connaissait pas encore le moyen d'induire des frontières de décision non linéaires. En 1992, Boser et Al proposent d'introduire des noyaux non-linéaires pour étendre le SVM au cas non-linéaire dans SOLLAH [20].

Elles reposent sur deux notions principales : la notion de marge maximale et la notion de fonction noyau. Les machines à vecteurs support sont des algorithmes d'apprentis-sage automatique qui traitent des problématique de classification et de régression d'après Wikipédia [25].

Ces algorithmes ont l'avantages d'être simple à utiliser, flexible et garantissent une soliditéthéorique.

leur but est de classer les données à l'aide d'une frontière de sorte à maximiser la distance (appelée marge) entre les données des différentes classes.

2.3. LES ALGORITHMES DE MACHINE LEARNING CHAPITRE 2. REVUE DE LA LITTÉRATURE

Mémoire de Master II en Informatique 31 c~NJAMEN M. ZELKIF 2020-2021

Les machines à vecteurs support sont utilisés dans une variétéd'applications telles que la détection des anomalie, la vision par ordinateur, la reconnaissance d'images etc.

Le tine-tuning des hyper-paramètres du SVM peut être optimiséen utilisant la technique Grid-Search. Selon Wikipédia [25]

précédent sommaire suivant






La Quadrature du Net

Ligue des droits de l'homme