Home | Publier un mémoire | Une page au hasard

Estimation de la qualite de scan 3d par techniques d'apprentissage machine


par Yahya KARAZI
Arts et Métiers ParisTech - Master 2 recherche 2019
Dans la categorie: Informatique et Télécommunications
   
Télécharger le fichier original

sommaire suivant

KARAZI Yahya

MR CPSE | PJR

Sous la direction de : Mr Pernot

22/10/2020

ESTIMATION DE LA QUALITE

DES SCANS PAR TECHNIQUE

D'APPRENTISSAGE MACHINE

1

Table des matières

Introduction : 2

Contexte : 2

Etat de l'art : 3

Scan par lumière structurée : 7

Critères géométriques : 8

Indice de qualité : 9

Application : 10

Exemple d'application : 10

Caractérisation géométrique : 12

Evaluation de la qualité : 14

Préparation de données 15

Apprentissage machine : 15

Conclusion : 20

Références : 21

Annexes : 22

2

Introduction :

La numérisation des objets et la capitalisation des connaissances sous forme numérique est de plus en plus indispensable de nos jours, dans un monde qui tend vers la virtualisation, ou l'on cherche à accéder à l'information ou que l'en soit et quand on le veut.

La numérisation des objets que ce soit pour des applications de métrologie où l'intérêt est la mesure et le contrôle des pièces afin de s'assurer de la qualité de ces dernières, c'est le domaine qui nécessite le plus de précisions, d'où l'exigence sur le procédé de numérisation qui est contraint de récupérer la forme et la géométrie d'une manière fidèle, on trouve aussi les applications de rétroconception ou le but est la reconstruction des modèles virtuels à partir des objets physiques dont on ne dispose pas d'informations, ceci en ayant une vision de reconstruction de l'objet, ou d'en créer un modèle pour des applications de réalité virtuelle, ou pour des fins de restauration comme est le cas des oeuvres d' art et des sites historiques.

Dans ce contexte il existe plusieurs technologies permettant la numérisation de l'apparence et de la géométrie des objets existants avec des grandes résolutions, On trouve la technologie de lumière structurée, qui réalise un calcul, type triangulation, à partir de la déformation de la lumière projetée (qui peut être une grille, des vagues, des points régulièrement espacés, des formes complexes). Cette lumière est captée par 2 caméras. En calculant le déplacement du motif sur la surface, le logiciel en déduit ses propriétés, On trouve aussi les technologies se basant sur la triangulation par laser en projetant un rayon laser et analysant la déviation sur le volume, ainsi que la branche de photogrammétrie qui est une analyse de photos prises dans différentes positions, permettant d'en extraire des informations et d'en construire un modèle 3D du sujet. Il existe aussi des technologies de scan par contact utilisant des palpeurs, et des technologies par impulsion laser qui se base sur le calcul de la durée mise par la lumière pour atteindre une surface et revenir.

Contexte :

Comment caractériser et quantifier la qualité d'une numérisation d'un objet 3D ? et quel lien existe entre cette qualité définie et les conditions de numérisation ? connaissant le lien entre les deux, peut-on estimer la qualité d'une numérisation 3D pour de nouveaux objets pour mieux définir une stratégie de scan ?

3

L'usage des scanners laser dans la numérisation en général a permis des vitesses d'acquisition plus importante ainsi qu'une grande densité de points, mais pour des applications qui nécessitent de grands degrés de précision comme dans le domaine de métrologie pour des taches d'inspection, il est indispensable que les données soient acquis dans les meilleures conditions. Durant la numérisation d'une pièce, plusieurs sources d'erreurs peuvent intervenir et le résultat est des données erronées.

D'où la nécessité de déterminer les paramètres ayant le plus d'influence, ces paramètres ainsi que le modèle CAO, sont utilisées afin de déterminer les corrélations qui existent entre la géométrie, la disposition, l'environnement et la qualité du nuage de points acquis, afin de trouver les valeurs optimaux de ses paramètres pour une meilleure numérisation, et par la suite définir un plan pour numériser précisément et d'une manière complète la géométrie de l'objet scanné, ce plan sera un ensemble de position et d'orientation du dispositif d'acquisition par rapport à l'objet scanné,

Pour ceci on prendra comme cas d'étude un scanner à lumière structurée, dont la précision est définie en fonction de la distance et de l'angle d'incidence relativement à la surface, le but étant naturellement d'obtenir la meilleure précision durant l'acquisition, il est donc évident de respecter les deux paramètres précédemment cités, mais ceci n'est pas évident et ses paramètres ne peuvent être respectés, surtout dans le cas des surfaces qui présentent de grandes variabilités.

Etat de l'art :

La définition d'un bon scan a été toujours liée au respect des paramètres et des consignes des fabricants de scanners, principalement la distance et l'angle d'incidence ce qui est justifié par le type des rayons lumineux et leurs intensités et la précision du dispositif d'acquisition, ses paramètres varient donc avec le procédé et le dispositif de numérisation, avec l'avance technologique les nouveaux dispositifs permette l'analyse en temps réel et l'assistance durant le scan afin d'assurer le bon respect de ces derniers.

On retrouve des approches qui essaient de la définir comme le résultat d'une bonne stratégie de numérisation. Alors que [Tarabanis 95] s'intéresse principalement à la planification des stratégies de scan en se basant sur des algorithmes de reconnaissance visuelle, où il commence par la détection des caractéristiques morphologique du sujet puis la détermination

4

d'un modèle stratégique de numérisation, [Prieto 03] s'intéresse à l'inspection automatique des objets contenant des surfaces courbées, en déterminant des plans d'acquisitions où la qualité dépond exclusivement de la précision du procédé de mesure. En tenant compte de la géométrie CAO et du modèle d'erreur du procédé, ils choisissent le meilleur positionnement du capteur vu qu'ils s'intéressent à des zones spécifiques pour l'inspection métrologique.

Les deux approches précédemment citées définissent des stratégies visant l'obtention d'une bonne qualité, cependant leur vision reste locale et dépond de la variabilité locale de la pièce scannée, ces approches sont donc très longues et complexes et seront plus dédiées à la numérisation des surfaces spécifiques ou à des zones d'intérêt, il faut noter aussi que la qualité n'est pas directement évaluée mais ses deux approches visent à respecter les bonnes conditions pour avoir de bons résultats, l'introduction d'autres paramètres inconnus qui peuvent influencer la qualité ne serait pas prise en compte, et ne sera même pas détectée, malgré le fait que ces conditions soient moins probables, ceci doit être pris en compte, afin d'avoir une vision d'amélioration du processus de planification de scan à un processus évolutif.

Pour d'autres la notion de qualité est définie par des indicateurs qui sont évalués après l'acquisition des données, c'est donc une analyse postérieure au scan, qui quantifie la notion de qualité.

La numérisation 3D d'un objet nécessite souvent plusieurs scans de différentes vues, lors du recalage de ces données afin d'avoir un scan complet, on se retrouve avec des densités locales inhomogènes, d'où la nécessité de quantifier la qualité d'un scan et permettre l'inspection, On trouve plusieurs indicateurs de qualité dans la littérature, l'évaluation de ces indicateurs est postérieure au scan vu qu'ils sont calculés à partir d'un nuage de points.

On retrouve deux types d'indicateurs, les indicateurs intrinsèques et les indicateurs spécifiques.

Parmi les indicateurs intrinsèques au nuage de points, [Hoppe 92] à proposer un indicateur de qualité qui est l'indicateur ñ-dense qui est un calcul de distance entre un point donné et le point le plus proche, puis réalise une sorte de moyenne globale sur la totalité du scan, cependant cet indicateur ne donne pas d'information sur la discontinuité des scans et des zones non numérisées, afin de tenir compte du caractère anisotrope de répartition des

5

données, [Contri 00] propose l'utilisation de la représentation des données sous la forme d'espace voxels. Le pavage de l'espace ainsi effectué permet l'évaluation locale de la densité, où on peut quantifier le nombre de points numérisés contenu dans l'espace voxel.

Afin de définir une stratégie de numérisation on trouve que dans la littérature on se base souvent sur l'indicateur de qualité de complétude, [Contri 00] a proposé une définition intrinsèque, cet indicateur nous aide à déterminer les zones où on a un manque de numérisation qui est justifié par une orientation inadéquate du dispositif d'acquisition, l'indicateur K-complétude est un taux de couverture de la surface numérisée en terme des aires des triangles, cet indicateur est par la suite évalué par un seuil qui est déduit d'une valeur fixée de la densité.

Les indicateurs spécifiques sont caractéristiques du dispositif de numérisation et des conditions expérimentales de cette numérisation. L'indicateur ô-bruit introduit par [Hoppe 92] évalue le bruit intrinsèque à la numérisation qui est de type aléatoire, est défini comme l'écart-type entre le modèle de la géométrie supposé parfait et le nuage de points au sens des moindres carrés. L'indicateur t-exactitude est définie comme l'écart entre la mesure et la valeur réelle du sujet mesuré, la particularité de cet indicateur c'est le fait de pouvoir évaluer la dispersion sur la position d'un point, numériser plusieurs fois à travers différentes vues.

La quantification de la qualité à travers des indicateurs intrinsèques et spécifiques dans la plupart des approches précédemment citées reste globale et ne prend pas en compte la variabilité local, en plus l'évaluation de ces indicateurs est toujours postérieure à la numérisation, ce qui signifie qu'afin d'obtenir une précision voulu, le processus est itératif, on doit effectuer plusieurs scans, puis évaluer les indicateurs cités chaque fois et vérifier si les résultats correspondent à la demande, dans cette voie notre approche se voit estimer la qualité par des techniques d'apprentissage machine avant d'effectuer le scan afin de permettre la planification stratégique de la numérisation, pour déterminer de manière exacte le positionnement et l'orientation du dispositif d'acquisition, et anticiper le manque de données dans des zones qui représentent des difficultés et une absence de numérisation. Les résultats de cette analyse qu'on propose permettront de choisir les données mesurées lors du recalage des nuages de points, où on pourra choisir par la suite ceux avec le plus de probabilité d'exactitude en fonction de la distance et de l'orientation, autrement dit pour un point numérisé à partir de plusieurs vues, on pourra choisir la meilleure mesure de ce dernier, et isoler le reste des données ce qui posait problème de variabilité de densité.

6

Cette démarche qu'on propose se base sur des caractéristiques géométriques de l'objet dont la courbure, [LESAGE et al 14] propose pour la caractérisation des formes géométriques, une combinaison d'approximation de la courbure discrète, le concept d'invariance de ses approximations, le prétraitement sur des polyèdres construits à partir d'objets numérisés a été introduit. Cette combinaison d'approximations de courbure discrètes et l'utilisation de prétraitements spécifiques sur un polyèdre construit à partir d'un objet numérisé peuvent aider à effectuer sa segmentation pour extraire les lignes polygonales et les zones polyédriques qui serviront de base pour la génération des surfaces, ainsi le plus important pour nous c'est l'introduction d'une nouvelle définition de courbure discrète.

[Lin et al. 82] Définition discrète de la courbure gaussienne en chaque point en fonction des angles et des aires des triangles partageant le même point, ceci reste une bonne approximation quand les triangles sont réguliers, et ont des surfaces similaires.

[Boix 95] propose une approximation similaire mais qui tient compte de la variabilité des triangles et de leurs irrégularités, et qui approche d'une manière plus précise la courbure gaussienne.

Cette définition est très importante du fait qu'elle nous donne une information locale sur la forme et de sa variabilité, ceci nous aide à récupérer des données traduisant l'accessibilité à la zone durant le scan.

On a développé une méthode d'estimation de la qualité des scans d'objet, cette méthode nécessite un modèle CAO (en format STL), et des données du nuage de points issues d'un scan, dans notre cas on a pris l'analyse par lumière structurée comme exemple, mais cette méthode peut être utilisée pour plusieurs procédés, ceci dans une première phase d'apprentissage.

Scan par lumière structurée :

La numérisation par capteurs de proximité est devenue de plus en plus répandue vue la vulgarisation des dispositifs, cependant la différence de précision entre les capteurs à distance et ceux à base de palpeur reste très large, mais en matière de vitesse d'acquisition les rôles s'inversent, les capteurs à proximité permettent une couverture large des surfaces à numériser durant des secondes ou moins, d'où le besoin de maximiser leurs performances, pour notre étude d'estimation de la qualité des données de numérisation, on a choisi un scanner à lumière structuré, qui se base sur le principe de la triangulation trigonométrique, en projetant un motif de lumière sous forme de raies sur le sujet à numériser par un projecteur LCD dans la plupart des cas, puis une ou plusieurs caméras légèrement décalées analysent la courbure de la forme du motif lumineux et calcule la distance de chaque point.

Cette technologie de numérisation est l'une des plus rapides qui existent et offrent une grande résolution, principalement dédiée aux courtes distances de l'objet.

Figure (1)

7

8

Critères géométriques :

L'utilisation des scanners à base de lumière structurés est tenue à respecter des paramètres définis par les constructeurs de ces appareils, la distance étant le premier paramètre qui est fonction du type de la lumière et des motifs projetés, avec une distance trop importante l'éclairement lumineux devient moins important, par définition de l'éclairement lumineux qui est un rapport de l'intensité de lumière I sur la distance de la source d au carré. Le deuxième paramètre est l'orientation de la source lumineuse, une inclinaison par rapport à la normale de la surface entrainera directement la déformation des raies, et vu que la technique de mesure se base principalement sur la déformation des raies sur les courbures des surfaces numérisées, les données acquises sont naturellement biaisées, ceci est justifié par la relation de l'éclairement en optique physique donnée par eq. (1) :

I

E= d2 . cos(á)

eq. (1)

Pour ces raisons on s'intéressera aux deux paramètres d et á, généralement la distance entre l'objet et la source de lumière était défini de manière globale, cependant pour des objets qui présentent plusieurs variabilités cette distance peut varier d'une manière assez considérable, pour notre analyse on évaluera cette distance pour chaque point de la surface ceci nous donnera une idée bien précise sur la condition d'acquisition de chaque point.

On pourra dire de même pour l'orientation du projecteur par rapport à la normale de la surface, certes, il est impossible de suivre la forme de manière exacte et réaliser un scan de manière normal sur chaque point de la surface, mais on s'intéressera à contrôler l'effet de cette inclinaison dans la limite du raisonnable.

Ces deux paramètres seront des indicateurs des conditions dans lesquels la numérisation a été faite pour chaque point, afin de caractériser la géométrie à scanner on prendra en compte un autre paramètre qui a le plus d'influence sur la qualité d'un scan, ce dernier est la courbure gaussienne, qui caractérise la variation brusque de la morphologie de la pièce, cependant on ne peut l'évaluer de manière classique, on procèdera par l'approximation proposée [Boix] par eq. (2) :

9

K= 2??-? ?? a??

2 ? ????+1

1 8 ? ?? cot (a??)???? 2
??

eq. (2)

Cette approximation est fonction des aires des triangles qui partage le même sommet, des angles partageant ce même sommet, et de la longueur des arêtes opposées à ce sommet.

Figure (2)

La valeur de courbure quand attribuera au point numérisé comme indicateur de forme est une valeur moyenne des courbures définie dans les trois sommets du triangle le plus proche à ce point (eq3) :

K = ???????? + ???????? + ????????

eq. (3)

???? : ratio de la distance entre le point p et le sommet du triangle sur la somme de trois distance avec les trois sommets du triangle

???? : la courbure gaussienne dans le sommet i du triangle

On pourra potentiellement ajouter d'autres caractéristiques géométriques mais en se limitera dans notre analyse à ceux cité précédemment.

Indice de qualité

:

Pour notre analyse de qualité de scan, on prendra comme indicateur l'écart entre le nuage de point et la CAO du sujet à numériser dans cette première phase d'apprentissage, cet écart est

10

défini pour chaque point du nuage comme la distance entre ce dernier et le triangle le plus proche de la discrétisation de la CAO.

Figure (3)

Application :

On appliquera les indicateurs et les caractéristiques introduit dans les chapitres précédents sur un cas d'application qui est le Stanford Bunny, la CAO étant disponible sera polygonisé, est la tessellation résultante sera prise comme référence.

Le choix de la précision de tessellation est primordial, un pavage assez fin en résultera une grande quantité de données qui sera difficile dans la phase de traitement, un pavage assez grossier nous donnera des résultats qui seront assez loin de la forme initiale, et les valeurs des écarts calculés seront erronés, on se fixera une valeur qui nous assure un compromis entre la taille des données et la précision.

Exemple d'application :

Le fichier qu'on utilisera est sous format STL et la librairie utilisée pour la visualisation est stltools disponible pour python, la visualisation de la CAO est comme suit :

Figure (4)

Dans une deuxième étape on superpose le nuage de point et la tessellation du stanford bunny, durant cette étape il est nécessaire que les deux soient bien calé.

11

Figure (5)

12

Caractérisation géométrique :

L'étape suivante serait donc naturellement l'évaluation des caractéristiques géométriques pour la totalité des points de nuage, on aura besoin pour cela des informations concernant la position et l'orientation du scanner, donc un point et un vecteur, en évaluant la distance en peut tracer les droites reliant le point de la source et chaque point du nuage, les données sont enregistrées sous format texte(.txt).

Figure (6)

Sur la figure (6) on peut voir l'écart angulaire dont on parle, cet écart est calculé à partir d'un produit scalaire entre le vecteur directeur de la source de lumière et la normale du triangle, la valeur récupérée est un cosinus de l'angle d'écart, on voit aussi la distance entre la source lumineuse et le point qui appartient au nuage de points numérisé, cette distance est calculée comme étant la norme du vecteur dont les deux extrémités sont le point du nuage et le point de la source de lumière, sur cette même figure on montre l'écart qui représente l'erreur de numérisation, entre les points acquis et la géométrie.

13

Figure (7)

On évalue aussi l'écart entre le vecteur d'orientation de la source de lumière et la normale du triangle le plus proche au point, la définition du triangle le plus proche se base un algorithme qui calcul la distance entre le point et le plan qui contient le triangle, puis vérifie que la projection de ce point sur ce plan est contenue dans le triangle ou non, puis choisit le triangle dont la distance est la plus petite, le script des fonctions qui permettent de faire ce calcul sont en annexe.

La courbure comme précédemment définis est stockée de même sous fichier texte (.txt).

Il est intéressant de mentionner que l'évaluation de l'écart angulaire entre la source lumineuse et la normale à la surface peut être utile dans le cas où on essayerait de déterminer la meilleure orientation donnant un compromis entre la totalité des surfaces, pour mieux justifier ses propos, on trace un diagramme de fréquence corrigé par rapport aux aires des triangles qui montre la distribution des écarts, deux exemples sont les suivants, un qui est centré autour de la valeur 0 et l'autre autour de la valeur -0,7 .

Figure (8)

Également, l'intérêt de cette caractérisation est le fait qu'elle soit intrinsèque à la disposition de l'objet et du scanner, ce qui est très intéressant en matière d'informations récupérer.

14

Evaluation de la qualité :

Le calcul entre chaque point du nuage et le triangle le plus proche se fait d'une manière similaire, le script permettant de déterminer le triangle le plus proche du point pur le calcul de l'écart angulaire est le même utilisé pour calculer l'écart dimensionnel. Les valeurs de ses écarts sont de même enregistrées sous format txt, on peut visualiser cet écart quand il est important sur la figure (9).

Figure (9)

Les données récupérées peuvent être exploitées pour l'apprentissage machine et la construction d'un modèle permettant la prédiction de la qualité, en données d'entrer les caractéristiques géométriques, la distance entre le scanner et le point numérisé, l'écart angulaire entre la direction de la source de lumière et la normale à la surface locale, la courbure moyenne entre les trois sommets du triangle proche, définie pour chaque point, en résultat on aura l'écart dimensionnel entre le point et la surface référence.

15

Préparation de données

Les données étant générées à partir de la géométrie du modèle CAO et du nuage de points, peuvent être exploitées, les données sont enregistrées sous format texte (extension :.txt), et sont par la suite récupérables par un programme de lecture de fichier texte, ce programme permet de définir le nombre de colonnes ainsi la nature de chaque valeur présente sur le fichier texte et l'indice de cette dernière, ces données sont par la suite enregistrées dans un fichier de format python (extension :.py), cette étape a été introduite par ce qu'on a opté pour une structure modulable de notre processus et donc peut être négligé, elle sert juste a définir de manière explicite le nombre de caractéristiques est la position de chacune dans notre liste.

Apprentissage machine :

Afin d'avoir une analyse adéquate et globale en procède par un standard des bonnes pratiques décrit par [Plonsky 18] pour de la multi régression.

Le module qu'on à utiliser pour cette tâche est le multi perceptron de Scikitlearn, on fait l'appel à celui-ci avec les autres modules dont on aura besoin pour manipuler les données et tracer leur allure, on a aussi utilisé un régresseur linéaire afin de comparer les résultats et avoir une idée sur la nature des relations entre les différents paramètres étudiés et la qualité, ainsi pour voir l'atout en matière de prédiction du modèle lorsqu'on passe du linéaire au non linéaire, et si le modèle non linéaire impact le score d'une manière significatif ou non.

le score dont notre cas réfère à R2 qui est un coefficient qui reflète une mesure de la précision de la prédiction du modèle en question.

Le choix de la multi régression est justifié par le fait qu'on a plusieurs prédicteurs en entrée, et cette régression est standard vue que les données manipulées sont de nature géométrique non évolutive dans le temps.

On s'intéresse aussi à voir l'influence de la taille des données d'entrainement sur le score, pour cette raison en effectue l'apprentissage sur diffèrent taille de données et évaluer le score obtenu dans chaque cas, il faut noter que les données utilisé pour chaque configuration sont choisi d'une manière aléatoire afin d'avoir le plus de variabilité et d'éviter de faire une analyse local sur une zone précise.

Afin de mieux voir la nature des données traitées on les affiche sous forme de graphe ou en trace pour chaque couple d'écart angulaire et distance de scan la valeur de l'écart dimensionnel (erreur), le graphe obtenu est le suivant pour une taille de données de 5000.

Figure (10)

16

Figure (11a) Figure (11b)

17

Sur la figure (a) on remarque l'augmentation de la variabilité de l'erreur lorsque le cos (á) est presque nul, ceci correspond à un angle d'écart de 90 degrés, ce qui confirme l'influence de l'écart angulaire sur la qualité.

Sur la figure (b) on remarque que l'erreur est de plus en plus importante quand la distance est moins importante, cependant on ne peut juger de manière exacte vue que l'erreur est fonction des deux paramètres.

En effectuant l'apprentissage sur différentes tailles de données, le graphe des scores est le suivant.

Figure (12)

On remarque que le score se stabilise à une taille de jeu de données d'environ 5000, le meilleur score résultant est de 70%, ce score est relativement bas mais reste acceptable vue qu'on s'est limité à deux paramètres en entrée.

En comparaison avec le modèle de régression linéaire, les résultats sont les suivants :

Figure (13)

On remarque que le score se stabilise à 51% à partir d'un jeu de données de taille 1000, cette valeur de score est plus basse que celle du modèle non linéaire ce qui était évident vue la complexité du processus de numérisation et le nombre de facteurs qui influence la qualité d'un manière général.

Afin d'avoir une idée sur l'influence de chaque paramètre, en effectue l'apprentissage sur chaque caractéristique indépendamment et on analyse les résultats, les résultats sont les suivants :

Figure (14)

18

19

On remarque que l'écart angulaire a plus d'influence sur le score que la distance, et que pour des jeux de données de petite taille les scores sont les plus élevés ceci est dû au fait qu'avec peu de données, le régresseur arrive a trouver un lien malgré le fait que ce lien ne reflète pas le lien réel entre les différents paramètres.

Le score résultant qui représente le coefficient R2 est relativement bas, malgré le fait qu'un bon score aurait été plus satisfaisant, ce résultat nous donne une idée sur le fait qu'ils restent encore des paramètres qui ont été négligés et qui influencent la qualité du scan, ses paramètres doivent être étudiés et intégrés dans le modèle.

Une autre interprétation du résultat est le fait que les données sur lesquelles on a fait cette étude sont synthétiques et soient potentiellement biaisées, une étude sur des scans réels serait l'étape suivante naturelle,

On peut aussi justifier la valeur du score par l'existence du bruit intrinsèque à la numérisation et le traitement de données, il faut noter que [Prieto 03] avait déjà cité ceci dans son étude, où il conclut que le bruit est intrinsèque à la numérisation et qu'il suit une loi gaussienne, une pré étape de débruitage aura donc sûrement un impact.

D'une autre perspective, on remarque que les deux facteurs étudiés sur lesquels on s'est focalisé ont un grand impact sur la qualité, avec l'écart angulaire ayant le plus d'impact, à la contradiction de la lois d'éclairage dans la théorie de l'optique physique, ceci est justifié par le fait que l'écart angulaire dans les données étudiées varie sur la plage des valeurs possibles de 0 à 360 degrés, tandis que la distance varie sur une plage très limitée entre 200 et 220 mm, d'où l'influence importante du premier facteur sur les résultats.

20

sommaire suivant