WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Construction d'un modèle prédictif basé sur le réseau de neurones profond pour la détection de cancer de la peau


par Eddy MUTOMBO SHANGA
Institut supérieur et pédagogique de Mbanza-Ngungu - Licence 2022
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

Chapitre premier : Apprentissage automatique & Apprentissage

profond.

1.1. Introduction.

Actuellement l'informatique est presque présente dans tous les domaines : la santé, l'éducation, l'économie, et la cosmologie. Cette présence se reflète dans la vie quotidienne de l'individu et elle a permis des facilités d'utilisation et de compréhension de plusieurs complexes domaines. Un des domaines les plus importants qui a été touché par ce terrible développement de l'informatique est le domaine de la santé. Le développement de l'informatique et de la technologie continue à prendre une place de plus en plus importante dans le domaine de santé, ce qui a permis le développement du matériel médical, les logiciels de surveillance médicale, et les logiciels d'analyse médicales qui augmentent la précision des résultats. Ce dernier a donné une grande attention par les scientifiques, en particulier les spécialistes dans les domaines : de l'intelligence artificielle, les systèmes experts, l'apprentissage automatique Machine Learning, et l'apprentissage en profondeur Deep Learning.

Dans ce chapitre, nous allons d'abord présenter les techniques d'apprentissage automatique Machine Learning. Ensuite, nous décrierons comment l'apprentissage automatique a été déplacé vers l'apprentissage profond pour avoir des architectures plus prometteuses. Et enfin, nous finirons le chapitre par une conclusion.

1.2. L'apprentissage automatique Machine Learning.

L'intérêt de l'apprentissage automatique a augmenté au cours de la dernière décennie, pour tout le discours sur l'apprentissage automatique, il y a beaucoup de conflits entre ce que la machine peut faire et ce que nous souhaitons (Patterson et al., 2017). L'apprentissage automatique est un sous-ensemble de l'intelligence artificielle « IA », il est axé sur la création des systèmes qui apprennent et améliorent les performances, en se basant sur des données qu'ils traitent. Les algorithmes d'apprentissage automatique entrent en jeu pour optimiser, fluidifier, et sécuriser cette dernière (Clayton, 2019).

1.2.1. Définitions et types d'apprentissage automatique. 1.2.1.1. Définitions.

La définition de l'apprentissage automatique a connu une progression durant plusieurs années, cela est dû qu'à chaque fois il y avait de nouvelles découvertes dans ce domaine :

2 Est un tableau qui rassemble les individus qui ont un certain nombre de caractéristiques ou encore c'est une structure qui contient nos données.

P a g e | 16

premier programme qui permet aux ordinateurs de jouer et d'apprendre le jeu de dames sans être explicitement programmé (Géron, 2017).

? En 1997, l'informaticien américain « Tom Michael Mitchell » introduit une nouvelle définition de l'apprentissage automatique. Il a considéré qu'un programme apprend d'une expérience E, par rapport à une classe de tâches T, et avec une mesure de performance P (Géron, 2017).

? Avec le temps, la définition de l'apprentissage automatique a commencé à prendre une dimension mathématique et statistique. Selon les auteurs dans (Goodfellow et al, 2016), l'apprentissage automatique est essentiellement une forme de statistiques appliquées, mettant davantage l'accent sur l'utilisation d'ordinateurs pour estimer statistiquement les fonctions compliquées et un accent moindre sur la démonstration des intervalles de confiance autour de ces fonctions.

Ces définitions peuvent varier en fonction de l'angle étudié, mais elles sont toutes orientées vers une seule direction, qui est définie comme suit : l'apprentissage automatique est la science ou l'art de la programmation des ordinateurs afin qu'ils puissent apprendre à partir des données (Géron, 2017).

1.2.1.2. Types d'apprentissage automatique.

Il existe également de différents types d'apprentissage automatique. Selon (Géron, 2017), la définition du type d'apprentissage est basée sur la réponse à ces deux questions suivantes :

? Est - ce que cet apprentissage compte sur la supervision humaine dans son entrainement et apprentissage ?

? Est - ce que ce type d'apprentissage utilise une base de données (dataset2) fournie par l'être humain ?

1-. Si la réponse est oui pour les deux questions, nous avons un apprentissage supervisé.

2-. Si la réponse est non pour la première question, et oui pour la deuxième question, nous parlons d'un apprentissage non supervisé.

3-. Si la réponse est non pour les deux questions, le type de l'apprentissage est l'apprentissage par renforcement.

Dans ce qui suit, nous définissons chacun de ces types : apprentissage supervisé, apprentissage non supervisé, et apprentissage par renforcement.

P a g e | 17

1.2.1.2.1. Apprentissage supervisé.

Dans l'apprentissage supervisé l'être humain aide l'algorithme pour apprendre, un data scientiste sert de guide et il apprend à l'algorithme les résultats qu'il doit trouver. Le même cas lorsqu'on apprend à un enfant d'identifier les fruits, en les mémorisant dans sa mémoire. Dans l'apprentissage supervisé, l'algorithme apprend grâce à un jeu de données déjà étiqueté et dont le résultat est prédéfini (Goodfellow et al, 2016). (Voir figure 1).

Figure 1. Apprentissage supervisé.

Les algorithmes de l'apprentissage automatique supervisé sont les plus couramment utilisés, il y deux types d'apprentissage supervisé :

? La classification : la classification consiste à trouver le lien entre une variable d'entrée (X) et une variable de sortie discrète (Y), en suivant une loi multinomiale (Dupré, 2020).

? Régression : la régression consiste à prédire une valeur continue pour la variable de sortie (Dave, 2020).

Les algorithmes les plus célèbres utilisés dans cette approche sont les suivants (GAËL, 2019) :

? SVM (Machines à vecteurs de support) : est un apprentissage automatique très puissant et polyvalent modèle, capable d'effectuer la classification linéaire ou non linéaire, la régression, et même détection des valeurs aberrantes. C'est l'un des modèles les plus populaires de l'apprentissage automatique « Machine Learning », et n'importe qui intéressés par cette approche devraient l'avoir dans leur boîte à outils. Les SVM sont particulièrement bien adapté à la classification d'ensembles de données complexes mais de petite ou moyenne taille. L'algorithme SVM consiste à chercher à la fois l'hyperplan optimal ainsi que de minimiser les erreurs de classification.

P a g e | 18

A La méthode des k plus proches voisins : cet algorithme consiste à essayer différentes valeurs de K pour obtenir la séparation la plus satisfaisante.

A Naïve Bayes : est un classifieur assez intuitif à comprendre. Il se base sur le théorème de Bayes des probabilités conditionnelles, et il suppose que les variables sont indépendantes entre elles. Cela permet de simplifier le calcul des probabilités.

A Les arbres de décision : un arbre de décision sert à classer les futures observations, sachant qu'un corpus d'observations est déjà étiqueté.

A Les Forêts Aléatoires : cet algorithme fonde sur les arbres de décision, est un modèle construit par de multiples arbres de décisions.

A Régression Logistique : l'algorithme de régression logistique consiste à trouver les meilleurs coefficients pour minimiser l'erreur entre la prédiction faite pour des destinations visitées et la vraie étiquette donnée (Ex. bon, mauvais etc.).

A Les réseaux de neurones : Les réseaux neuronaux sont un modèle informatique qui partage certaines propriétés avec le cerveau humain, dans lequel de nombreuses unités simples travaillent en parallèle sans centralisation, ils permettent de trouver des patterns complexes dans les données, il se compose de valeurs d'entrées, poids, fonction de transfert et une valeur de sortie (Werfelli, 2015) (Voir figure 2).

Figure 2. Neurone biologique et neurone artificiel.

Il existe aussi d'autres algorithmes, tels que l'algorithme de régression linéaire, les Algorithmes Génétiques (GAËL, 2019). Certains algorithmes de régression peuvent également être utilisés pour la classification, et la régression, à titre d'exemple l'algorithme de la régression logistique (Géron, 2017).

P a g e | 19

1.2.1.2.2. Apprentissage non supervisé.

Avec l'apprentissage non supervisé la machine n'a pas besoin de l'aide pour apprendre. L'apprentissage non supervisé est une approche plus indépendante, dans laquelle un ordinateur apprend à identifier des processus et des schémas complexes sans aucun guide, Il implique une formation basée sur des données sans étiquette, qui ne contiennent aucun résultat spécifique (Goodfellow et al, 2016). (Voir figure 3).

Figure 3. Apprentissage non supervisé.

Selon (Géron, 2017), il y a deux types d'apprentissage non supervisé :

A Regroupement (Clustering) : c'est une méthode d'analyse statistique utilisée pour organiser des données brutes en silos homogènes, à l'intérieur de chaque grappe, les données sont regroupées selon une caractéristique commune.

A Réduction de la dimension : l'objectif est de simplifier les données sans perdre trop d'informations, à titre d'exemple, fusionner plusieurs caractéristiques en un seul caractère.

Les algorithmes les plus célèbres utilisés dans cette approche sont (Issarane, 2019) :

A K-Moyenne : est un algorithme de Regroupement (Clustering) il regroupe dans les même Cluster (Groupes) les données similaires (qui se ressemblent). Il utilise un raffinement itératif pour produire un résultat final.

A Analyse de classification hiérarchique (HCA) : la mise dans un cluster hiérarchique est similaire à la mise dans un cluster normal, sauf que dans ce cas nous souhaitons mettre en place une hiérarchie des clusters. Cela peut s'avérer très important surtout quand nous désirons une flexibilité par rapport au nombre de clusters voulu.

A PCA (Analyse des composants principaux) : l'algorithme PCA consiste à transformer des variables liées entre elles, vers de nouvelles variables séparées les uns des autres. Ces nouvelles variables sont

La figure ci - dessous exprime les différentes branches et algorithmes de l'apprentissage automatique (Voir figure 5).

P a g e | 20

nommées les composantes principales, elles permettent au praticien de réduire le nombre de variables et de rendre l'information moins redondante.

? Apriori : l'algorithme Apriori s'utilise dans une base de données transactionnelle pour extraire des ensembles d'éléments fréquents, puis générer des règles d'association.

1.2.1.2.3. L'apprentissage par renforcement.

Avec l'apprentissage par renforcement la machine n'a pas besoin de l'aide de l'être humain, ni en termes de supervision, ni en termes de fourniture de données. L'apprentissage par renforcement est une branche très différente. Le système d'apprentissage, appelé un agent dans ce contexte (Voir figure 4), peut observer l'environnement, sélectionner et effectuer des actions, et enfin obtenir des récompenses ou des pénalités (des récompenses négatives). La machine peut apprendre toute seule la meilleure stratégie à suivre, appelée une politique, pour obtenir plusieurs récompenses au fil du temps. Une politique définit l'action que l'agent devrait choisir lorsqu'il est dans une situation donnée (Géron, 2017).

Figure 4. Apprentissage par renforcement.

Parmi les premiers algorithmes d'apprentissage par renforcement, c'est l'algorithme « Temporal différence Learning », proposé par « Richard Sutton » en 1988 (Sutton, 1988). Aussi l'algorithme « Q-Learning » mis au point lors d'une thèse soutenue par « Chris Watkins » en 1989 et publié réellement en 1992 (Watkins et al, 1992).

P a g e | 21

Figure 5. Les approches et les algorithmes de l'apprentissage automatique. 1.3. Le choix d'un type d'apprentissage automatique.

Avec la présence de différents types de classifieurs pour l'apprentissage automatique, l'opération de choix d'un type est une question typique « Quel algorithme dois-je utiliser ? ». Selon (Li, 2017), la réponse à cette question varie les facteurs suivants :

V' La taille, la qualité et la nature des données. V' Le temps de calcul disponible.

V' L'urgence de la tâche.

V' Le but d'utilisation de ces données.

La figure suivante (Voir figure 6), fournir des indications sur les algorithmes à essayer en premier selon les facteurs mentionnés ci-dessus.

Figure 6. Le choix de l'algorithme d'apprentissage selon certains facteurs.

P a g e | 22

1.4. Champs industriels d'apprentissage automatique.

L'apprentissage automatique (l'apprentissage artificiel) a fourni un grand nombre d'outils aux industriels et aux entrepreneurs. Nous les regroupons selon deux grands axes: la reconnaissance des formes et la fouille de données (l'extraction de connaissances des données (Datamining)) (Chapman et al., 2000).

1.4.1. La reconnaissance de forme.

Elle est un ensemble de technique et méthodes permettant d'identifier les motifs informatiques à partir des données brutes pour la prise de décision en dépendance de la catégorie que l'on attribue à ce motif. C'est l'un de deux axes sur lesquels l'apprentissage automatique se développe, elle utilise aussi les statistiques.

Au sens large si on veut bien comprendre la forme, c'est un motif à nature variée et non pas une simple forme géométrique.

Il peut s'agir par exemple d'un contenu visuel (empreinte digitale, code barre, visage, ...) ou sonore (la parole), d'images médicales (rayon X, EEG, IRM...) ou multi spectrales (images satellitaires) et bien d'autres.

Les méthodes d'apprentissage automatique sont ici à la base de :

? La reconnaissance des images (écriture manuscrite, signatures, détection de ressources par satellite, pilotage automatique, etc...) ; ? La reconnaissance de la parole ;

? Le traitement avancé des signaux biomédicaux ; Etc.

1.4.2. La fouille de données ou datamining.

Les problèmes pratiques que peut résoudre en ce domaine le machine Learning se posent constamment dans la vie industrielle : comment distinguer un bon client d'un mauvais, comment reconnaître un mauvais procédé de fabrication et l'améliorer, voilà deux exemples frappants parmi tant d'autres.

La fouille de données (Datamining, en anglais) est le processus d'extraction de la connaissance : il consiste à sélectionner les données à étudier à partir de bases de données (BD) (hétérogènes ou homogènes), à épurer ces données et enfin à les utiliser en apprentissage pour construire un modèle (Gashler et al., 2008).

Dans le souci de pouvoir corriger certains défauts qu'avaient connus ses prédécesseurs entre autre (Statistique descriptive, analyse de données, etc.), qui sont : exigence de présentation des données sous une forme très rigide et faiblesse d'intelligibilité constatée sur les résultats. Dans ce souci est né le datamining.

Depuis, l'évolution de ces domaines, les critiques qui leur ont été adressés ont changé, et ceci vers les années 1990. Data ming est effectivement né quadruplet effort.

P a g e | 23

V' Permettre aux utilisateurs de fournir des données dans l'état où elles sont

(ceci a donné naissance aux techniques de nettoyage des données);

V' Utiliser les données enregistrées sous forme de bases de données (en général relationnelles), ceci a provoqué un large courant de recherche au sein de la communauté des BD intéressée par la création de modèles;

V' Fournir aux utilisateurs des outils capables de travailler sur des données mixtes, numériques et symboliques ;

V' Construire des outils produisant une connaissance intelligible aux utilisateurs.

C'est ainsi que datamining a pu trouver la large reconnaissance industrielle dont elle jouit actuellement. Elle a commencé à résoudre les deux problèmes industriels principaux de l'analyse des données, ceux qui coûtent le plus cher (le fait que le client est souvent imprécis dans la dentition du problème qu'il se pose et le fait que les données dont il dispose sont souvent de qualité discutable).

1.4.3. Caractéristique d'apprentissage automatique.

Parmi les principales caractéristiques et facultés adoptées par les modèles d'apprentissage automatique, nous citons : l'entraînement, la reconnaissance, la généralisation, l'adaptation, l'amélioration et l'intelligibilité (Chapman et al., 2000).

1.4.3.1. Adaptation.

Elle peut être vue comme étant la disposition du modèle (algorithme ou système) à corriger son comportement ou à remanier sa réponse (ex., prédiction) par rapport à de nouvelles situations.

Pour les tâches de perception, en vision artificielle, on accumule les bonnes et mauvaises expériences, et à partir d'elles, on peut faire évoluer les règles pour mieux effectuer la tâche, c'est le phénomène d'adaptation ou d'amélioration.

1.4.3.2. Intelligibilité.

C'est améliorer la compréhension des résultats d'apprentissage, afin que le modèle puisse fournir une connaissance claire et compréhensible. Au sens interprétable (en anglais, on parle de comprehensibility ou understandability).

Exemple, quand un expert extrait de la connaissance des bases de données (BDs), il apprend une manière de les résumer ou de les formuler (expliquer, expliciter de manière simple et précise).

P a g e | 24

D'un point de vue fouille de données, ça revient purement et simplement à contrôler l'intelligibilité (clarté) d'un modèle obtenu.

Actuellement, la mesure d'intelligibilité se réduit à vérifier que la connaissance produite est intelligible et que les résultats sont exprimés dans le langage de l'utilisateur et la taille des modèles n'est pas excessive.

1.4.3.3. Généralisation.

D'une autre facette, l'apprentissage est typiquement caractérisé par une généralisation rationnelle des règles, c'est-à-dire si d'une expérience accumulée sur un certain nombre d'exemples, on tire des règles de comportement, il faudrait que celles-ci soient également applicables à des situations encore non rencontrées.

1.4.3.4. Reconnaissance.

Avec la reconnaissance de la parole, par exemple, le programme d'apprentissage n'aura pas besoin d'apprendre tous les sons de ladite parole. Il va extraire une règle de classification qui lui permettra de traiter au mieux les sons qu'il aura à décoder.

1.4.3.5. L'amélioration.

Les sciences cognitives définissent l'apprentissage comme étant une capacité à améliorer les performances au fur et à mesure de l'exercice d'une activité. C'est le cas d'un joueur du scrabble au fil des parties, où l'assimilation de l'expérience et la puissance du raisonnement se combinent dans sa progression.

1.4.4. Tache d'apprentissage.

Il est possible de parler de l'objectif du processus d'apprentissage suivant plusieurs points de vue :

? Par rapport à la connaissance

L'apprentissage peut viser à modifier le contenu de la connaissance (par l'acquisition de connaissances, soit par révision ou par oubli), non seulement de modifier mais aussi le rendre plus efficace par rapport à un certain but ; Par réorganisation, optimisation ou compilation par exemple. Ce pourrait être le cas d'un joueur d'échecs ou d'un calculateur mental qui apprend à aller de plus en plus vite sans pour autant connaître de nouvelles règles de jeu ou de calcul. On parle dans ce cas d'optimisation de performance.

P a g e | 25

· Par rapport à l'environnement

Dans cette optique la tache de l'apprentissage peut être définie de ce que l'agent apprenant doit réaliser pour survivre dans son environnement en :

V' Apprenant à reconnaître les formes ; V' Apprendre à prédire ;

V' Apprendre à être plus efficace.

· Par rapport à des classes abstraites de problèmes.

Voyant des problèmes et processus de résolution qui leur sont assignés, l'apprentissage peut viser à extraire et à compresser l'information, à décoder ou même à décrypter un message codé (cryptographie), à approximer une fonction cachée dans les données (problème d'analyse), à généraliser une connaissance déjà apprise (problème d'induction), à tenter la résolution des problèmes mal posés (problème issu des mathématiques appliquées).

· Par rapport aux structures de données ou types d'hypothèses visées.

Dans cette optique, la tâche agent apprenant est définie sur la détermination de l'algorithme d'apprentissage à utiliser ainsi que le type de données adéquat à l'apprentissage. Il consiste parfois à modifier la structure de données pour en trouver une équivalente mais plus efficace du point de vue computationnel, c'est encore une fois, sous un autre angle, le problème de l'optimisation de performance (Mitchell, 1997).

1.4.5. L'espace des données d'apprentissage.

Le problème de la classification est l'apprentissage d'une fonction dite de prédiction, de décision etc., au travers des données. Pour espérer obtenir un classifieur adapté à la tâche considérée, quelques points sont à survoler (Wiener et al., 2002).

Ces points se résument autour de deux problèmes essentiels :

V' Celui de la représentation adéquate des données ;

V' Et celui de la représentation des hypothèses faites par le programme d'apprentissage.

1.5. De l'apprentissage automatique à l'apprentissage en profondeur.

Nous ne pouvons pas différer sur l'efficacité de l'apprentissage automatique dans la résolution d'une variété de problèmes, mais il y a beaucoup de problèmes que ce type fait face, dont les plus importants sont le temps, la vitesse et l'efficacité, si un algorithme d'apprentissage automatique renvoie une prédiction inexacte, alors un

P a g e | 26

ingénieur doit intervenir et faire des ajustements, dans ce cas, il y a un manque d'efficacité qui sera une perte de temps avec une prévision lente (Grossfeld, 2020).

Les algorithmes simples d'apprentissage automatique décrits dans ce chapitre fonctionnent très bien sur une grande variété de problèmes importants. Cependant, ils n'ont pas réussi à résoudre les problèmes centraux de l'intelligence artificiel, tels que la reconnaissance de la parole ou la reconnaissance d'objets. Le développement de l'apprentissage en profondeur a été motivé en partie par l'échec de algorithmes traditionnels, lorsque de travaille avec des données de grande dimension, pour bien généraliser sur de telles tâches l'intelligence artificiel (Goodfellow et al., 2016).

1.6. L'apprentissage en profondeur « Deep Learning ».

L'apprentissage en profondeur « Deep Learning » a été un défi à définir pour beaucoup de spécialiste dans le domaine, car il a changé de forme lentement au cours de la dernière décennie. Une définition utile précise que l'apprentissage en profondeur est un réseau neuronal avec plus de deux couches (Patterson et al., 2017). Le problème avec cette définition est qu'elle fait écho à l'existence de ce domaine depuis les années 80 du siècle dernier, formant ainsi une grande contradiction puisque beaucoup de gens pensent que ce domaine est relativement nouveau, pour réfuter cette contradiction, il faut distinguer le moment où le domaine est apparu et celui où il a été cadré et exploité.

1.6.1. Définitions et les architectures d'apprentissage en profondeur. 1.6.1.1. Définitions.

Le terme « apprentissage profond » a été introduit dans le domaine du l'apprentissage automatique par « Rina Dechter » en 1986, et dans les réseaux de neurones artificiels par « Igor Aizenberg » et ses collègues en 2000, dans le contexte des neurones à seuil booléen (Schmidhuber, 2015), l'apprentissage profond désigne une technique d'apprentissage d'une machine, c'est une sous-branche de l'intelligence artificielle qui vise à construire automatiquement des connaissances à partir de grandes quantités d'information (Voir figure 7). Les caractéristiques essentielles du traitement ne seront plus identifiées par un traitement humain dans algorithme préalable, mais directement par l'algorithme d'apprentissage profond (Nuageo, 2017).

P a g e | 27

Figure 7. Les sous-bronches de l'intelligence artificiel.

L'apprentissage en profondeur permet donc implicitement de répondre à des questions du type « que peut-on déduire de ces données ? » et décrire des caractéristiques parfois cachées ou des relations entre des données souvent impossibles à identifier pour l'homme.

D'après (Patterson & Gibson, 2017) l'apprentissage profond est un réseau neuronal avec un grand nombre de paramètres et de couches, l'exemple de base c'est le perceptron multicouche MLP « multi layer perceptron » (Voir figure 8).

Figure 8. Un perceptron multicouche.

Perceptrons a été inventé en 1958 au « Cornell Aviation Laboratory » par « Frank Rosenblat » financé par le bureau de recherche navale des États-Unis, Le mot vient de verbe latin « Percipio » qui signifie en Anglaise understand ; en Français comprendre, qui montre que le robot ou l'appareil peut apprendre et comprendre le monde extérieur (Rosenblatt, 1958).

P a g e | 28

Un perceptron multicouche avec plusieurs couches cachées entre la couche d'entrée et la couche de sortie est un réseau de neurones profonds (DNN), le DNN est une fonction mathématique, qui mappe certains ensembles de valeurs d'entrée aux valeurs de sortie. La fonction est formée par la composition de nombreuses fonctions plus simples (Goodfellow et al., 2016).

Certaines de ses caractéristiques (Patterson et al., 2017) :

V' Plus de neurones.

V' Des moyens plus complexes de connecter les couches neurones dans

les réseaux neuronaux.

V' Puissance de calcul.

V' Extraction automatique des fonctionnalités.

L'apprentissage profond s'applique dans divers domaines (Goodfellow et al., 2016), tel que :

V' L'intelligence artificielle en général.

V' La reconnaissance visuelle et la comparaison de forme.

V' La robotique.

V' La santé et la bio-informatique.

V' La sécurité.

1.6.1.2. Les architectures d'apprentissage en profondeur.

Les trois grandes architectures de réseaux profonds selon (Patterson et al., 2017) :

4. Réseaux de neurones pré-entraînés non supervisés.

4. Réseaux neuronaux convolutionnels (CNN).

.

4. Réseaux neuronaux récurrents (RNN)

Habituellement, de nombreuses catégories considèrent les réseaux de neurones supervisés comme appartenant au domaine d'apprentissage automatique plutôt que d'apprentissage en profondeur.

P a g e | 29

1.7. Comparaison entre l'apprentissage automatique et l'apprentissage en profondeur.

 

L'apprentissage
automatique

L'apprentissage en
profondeur

Dépendances des données

Une performance excellence

avec des petites bases de
données.

Une performance

excellente avec les BIG-DATA3.

Dépendances du matériel

Travail sur une machine

faible.

Besoin d'une machine

fort avec un CPU4 fort aussi.

Les caractéristiques des données

Besoin de comprendre les

caractéristiques des données.

Pas besoin de comprendre

les caractéristiques des
données.

Le temps d'exécution

Quelque minute à des heures.

Des semaines.

Interprétable

Certains algorithmes sont

faciles (Arber de disions) et

d'autres sont impossibles
(SVM, XGBoost5).

Difficile à impossible.

Tableau 1 : Comparaison entre l'apprentissage automatique et l'apprentissage en

profondeur.

3 BIG-DATA : un ensemble très volumineux de données qu'aucun outil classique de gestion de base de données ou de gestion de l'information ne peut vraiment travailler (Bremme, 2015).

4 CPU : Un processeur « central processing unit »

5 XGBoost : est une bibliothèque logicielle open source permettant de mettre en oeuvre des méthodes de Gradient boosting, Le Boosting de Gradient est un algorithme d'apprentissage supervisé dont le principe et de combiner les résultats d'un ensemble de modèles plus simple et plus faibles afin de fournir une meilleure prédiction (Cayla, 2018).

P a g e | 30

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Piètre disciple, qui ne surpasse pas son maitre !"   Léonard de Vinci