WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Préservation de l'enveloppe temporelle pour la compression du signal de parole

( Télécharger le fichier original )
par Stéphane GALLEGO
Université Lyon I -  1998
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

UNIVERSITE CLAUDE-BERNARD LYON I
INSTITUT "TECHNIQUE DE READAPTATION"

Directeur Professeur Michel EYSSETTE

PRESERVATION DE
L'ENVELOPPE TEMPORELLE
POUR LA COMPRESSION DU SIGNAL DE PAROLE

MEMOIRE présenté pour l'obtention du

DIPLOME D'ETAT D'AUDIOpROTHESISTE

par
GALLEGO Stéphane

Autorisation de reproduction Lyon le 20 novembre 1998

Professeur Alain Morgon N° 155
Responsable de l'enseignement

INSTITUT "TECHNIQUES DE RÉADAPTATION"

UNIVERSITÉ CLAUDE-BERNARD . LYON I

Président Pr. Marc DECHAVANNE.

Vice-Président "Santé" Pr. Jacques DOURY

Vice-Président "Sciences" Pr. Yves LEMOIGNE

Secrétaire Général Mr. Jacques FLACHER

FÉDÉRATION SANTÉ

U.F.R. DE MÉDECINE LYON GRANGE BLANCHE Doyen Pr.

U.F.R. DE MÉDECINE LYON R.T.H. LAENNEC Doyen Pr.

PELLET Hélène

VITAL-DURAND Denis

U.F.R. DE MÉDECINE LYON-NORD

Doyen

Pr.

PATRICOT Louis Marc

U.F.R. DE MÉDECINE LYON-SUD

Doyen

Pr.

GERARD Jean-Pierre

U.F.R. D'ODONTOLOGIE

Doyen

Pr.

DOURY Jacques

INSTITUT DES SCIENCES PHARMACEUTIQUES

Directeur

Pr.

COLLOMBEL Christian

ET BIOLOGIQUES

 
 
 

INSTITUT TECHNIQUES DE RÉADAPTATION

Directeur

Pr.

EYSSETTE Michel

DÉPARTEMENT DE FORMATION ET CENTRE

Directeur

Pr.

MORNEX Jean-François

DE RECHERCHE EN BIOLOGIE HUMAINE

 
 
 

DÉPARTEMENT DE FORiviA7i1ON À LA

Diret-leUl

i)f.

ILJWILLE Maurice

RECHERCHE ET À L'ÉVALUATION

 
 
 

PÉDAGOGIQUES

 
 
 

FÉDÉRATION SCIENCES

CENTRE DE RECHERCHE ASTRONOMIQUE Directeur Mr. BACON Roland

DE LYON - OBSERVATOIRE DE LYON

U.F.R. DES SCIENCES ET TECHNIQUES

DES ACTIVITÉS PHYSIQUES ET Directeur Mme ROUARD Annie

SPORTIVES

U.F.R. DE MATHÉMATIQUES APPLIQUÉES,

DE GESTION ET D'ÉCONOMIE Directeur Pr. AUGROS Jean-Claude

U.F.R. DE GÉNIE ÉLECTRIQUE ET DES

PROCÉDÉS Directeur Pr. GILLES Gérard

U.F.R. DE PHYSIQUE Directeur Pr. VIALLE Jean-Louis

U.F.R. DE CHIMIE ET BIOCHIMIE
·Directeur Pr. SCHARFF Jean-Pierre

U.F.R. DE BIOLOGIE Directeur Pr. DEBOUZIE Domitien

U.F.R. DES SCIENCES DE LA TERRE Directeur Pr. ELMI Serge

I.U.T. A Directeur Pr. ODIN Michel

I.U.T. B Directeur Pr. MAREST Gilbert

DÉPARTEMENT DE 1 ER CYCLE

PLURIDISCIPLINAIRE SCIENCES Directeur Mr. PONCET Pierre

INSTITUT DES SCIENCES ET DES Directeur Pr. TROMPETTE Philippe

TECHNIQUES DE L'INGÉNIEUR DE

LYON

U.F.R. DE MÉCANIQUE Directeur Pr. GENCE Jean-Noël

U.F.R. DE MATHÉMATIQUES Directeur Pr. MORVAN Jean-Marie

U.F.R. D'INFORMATIQUE Directeur Pr. VANDORPE Denis

Je remercie vivement :

Mademoiselle Marie Bontoux pour m'avoir enseigné l'audioprothèse et assumé la direction de ce mémoire.

Monsieur Jean Rouquet pour m'avoir accueilli dans un de ses établissement. Monsieur le professeur Berger-Vachon pour le coencadrement ce mémoire.

Monsieur Christian Lorenzi pour l'aide sur la revue bibliographique sur la modulation d'amplitude

La société MXM pour m'avoir permis d'effectuer la formation d'audioprothèse en même temps que mon travail.

Enfin, je remercie Pauline et Andrea pour leur patience durant toute cette période difficile.

SOMMAIRE

RESUME 9

ANATOMO-PHYSIOLOGIE DE L'AUDITION 11

L'OREILLE 11

L'OREILLE EXTERNE 11

L'OREILLE MOYENNE 11

L'OREILLE INTERNE 14

ORGANISATION FONCTIONNELLE DES VOIES AUDITIVES 21

NERF AUDITIF 21

NOYAU COCHLEAIRE 21

LE COMPLEXE DE L'OLIVE SUPERIEURE (COS) 23

LEMNISQUE LATERAL 23

COLLICULUS INFERIEUR (CI) 23

LE COLLICULUS SUPERIEUR 23

THALAMUS AUDITIF 23

LE CORTEX AUDITIF 23

PATHOLOGIE : LES GRANDS TYPES DE SURDITE 26

LES SURDITES DE TRANSMISSION 26

LES SURDITES DE PERCEPTION 26

LES NIVEAUX DE SURDITE 27

ETAT DES VOIES AUDITIVES DANS LES SURDITES DE PERCEPTION

27

RAPPELS ACOUSTIQUES ET PHONETIQUES 29

LES SONS 29

LES VOYELLES 30

LES CONSONNES 30

LA CHAINE PARLEE 32

L'ENVELOPPE TEMPORELLE DES OBJETS SONORES 34

TRAITEMENT PERCEPTIF DES FLUCTUATIONS TEMPORELLES 34
DECOMPOSITION TEMPORELLE DE L'OBJET SONORE 35

L'ENVELOPPE 36

LA PERIODICITE 37

LA STRUCTURE FINE 38

L'ENVELOPPE TEMPORELLE DES SONS 39

ASPECTS PERCEPTIFS 39

SENSIBILITE A L'ENVELOPPE 40

EFFET D'UN DEFICIENT AUDITIF PERIPHERIQUE 41

ASPECTS ACOUSTICO-PHONETIQUES 42

DEGRADATION DE L'ENVELOPPE ET INLIGIBILITE 43

RECONNAISSANCE DE LA PAROLE PAR L'ENVELOPPE 50

OBJECTIF 50

MATERIEL ET METHODE 51

TRAITEMENT DU SIGNAL 51

LISTE DE MOTS 54

EXPERIMENTATION 55

SUJETS TESTES 56

RESULTATS & DISCUSSION 56

CONCLUSION 58

COMPRESSION ET EXPANSION PAR L'ENVELOPPE 60

OBJECTIF 60

MATERIEL ET METHODE 61

TRAITEMENT DU SIGNAL 61

LISTE DE MOTS 64

EXPERIMENTATION 64

SUJETS TESTES 65

RESULTATS & DISCUSSION 65

CONCLUSION 67

CONCLUSION GENERALE 68

BIBLIOGRAPHIE 70

RESUME

Des auteurs travaillant sur le signal de la parole ont montré l'importance des modulations d'amplitude sur l'intelligibilité. Plusieurs autres travaux décrivent une préservation des performances psychoacoustiques sur la modulation d'amplitude pour une population atteinte de surdités sensori-neurales.

L'objectif de ce mémoire est

- de faire une revue bibliographique assez complète sur l'enveloppe du signal de parole,

- d'évaluer l'importance de l'enveloppe du signal de parole sur l'intelligibilité,

- d'évaluer un nouveau type de compression du signal qui permet de préserver la forme de l'enveloppe et la structure fine du signal.

Les résultats obtenus ont :

- confirmé le fort taux d'intelligibilité de l'enveloppe temporelle du signal,

- montré que le type de compression développé a une grande immunité au bruits et n'engendre pas de dégradation de l'intelligibilité par rapport au signal d'origine.

ANATOMO-PHYSIOLOGIE

DE L'AUDITION

ANATOMO-PHYSIOLOGIE DE L'AUDITION

Le système auditif collecte les vibrations acoustiques de l'air puis les transforme en sensations auditives et permet d'établir une communication avec l'environnement.

L'appareil auditif est composé de l'oreille (3 parties), du nerf auditif, des voies auditives centrales (noyaux du tronc cérébral) et de leurs projections corticales.

L'OREILLE

Elle est constituée d'un ensemble de cavités creusées dans le rocher, on peut distinguer l'oreille externe, l'oreille moyenne et l'oreille interne. Chacune assure un rôle spécifique dans l'audition.

L'OREILLE EXTERNE

L'oreille externe comprend le pavillon et le conduit auditif externe.

Le pavillon capte et concentre les ondes sonores. Le son pénètre ensuite dans le conduit auditif externe qui renforce par résonance, les fréquences conversationnelles.

L'OREILLE MOYENNE

Anatomie

L'oreille moyenne est composée par le tympan, la caisse du tympan, la trompe d'Eustache, la chaîne des osselets, la fenêtre ovale et la fenêtre ronde.

Le tympan, double membrane, vestige d'une structure branchiale, sépare l'oreille externe de l'oreille moyenne. Il s'articule avec les osselets pour former la chaîne tympano-ossiculaire. Les deux fenêtres isolent le milieu aérien de l'oreille moyenne des liquides de l'oreille interne et participent à la propagation de l'onde sonore.

Fonction

L'oreille moyenne assure trois fonctions principales :

1 - La transmission de l'onde sonore (interface qui réduit les pertes énergétiques du passage de l'onde entre le milieu aérien et milieu liquidien) : la chaîne tympano-ossiculaire transforme les vibrations aériennes en variations de pression dans les liquides de l'oreille interne. La transmission des variations de pression s'effectue grâce au jeu des fenêtres ronde et ovale qui vibrent en opposition de phase et compensent l'incompressibilité des liquides (le rapport de surface entre tympan et fenêtre permet une amplification).

2 -- L'adaptation d'impédance : elle évite les réflexions de l'onde lors du passage de l'air dans un liquide et la perte d'énergie qui en découlerait. Elle est due à deux mécanismes complémentaires : l'amplification liée au système de levier des osselets et l'amplification liée au rapport des surfaces entre le tympan et la platine de l'étrier.

Cette phase de la transmission des sons est mécanique.

3 - La limitation de l'énergie sonore : grâce au réflexe stapédien (contraction des muscles de l'étrier), l'oreille moyenne peut limiter l'énergie sonore à l'entrée de l'oreille interne (Le Poncin-Charanchon et al, 1981).

1 0 1 6 1 5 14

2

18

19

17

13

11 8 12

Figure 1 : Schéma de l'appareil auditif et vestibulaire droit (vue antérieure),
Rohen et Yokochi, 1981

Oreille externe

1 Auricule (pavillon)

2 Lobule de l'auricule

3 Hélix

4 Tragus

5 Méat acoustique externe

Oreille moyenne

6 Membrane tympanique

7 Malléus (marteau)

8 Incus (enclume)

9 Stapes (étrier)

10 Cavité tympanique

11 Processus Mastoïdien

12 Trompe auditive

13 Muscle tenseur du tympan

Oreille interne

14 Canal semi-circulaire antérieur

15 Canal semi-circulaire postérieur

16 Canal semi-circulaire latéral

17 Cochlée

18 Nerf vestibulo-cochléaire

19 Partie pétreuse de l'os temporal

L'OREILLE INTERNE

Située dans le rocher l'oreille interne a une structure anatomique et histologique complexe. Elle contient les organes de l'audition et de l'équilibration (la cochlée est sensible aux fréquences de 20-20000 Hz et le vestibule aux fréquences inférieures à 20 Hz), Elle est constituée de deux formations anatomiques essentielles : le labyrinthe osseux qui a un rôle protecteur et le labyrinthe membraneux qui renferme les éléments fonctionnels de l'audition et de l'équilibration. La cochlée, partie auditive du labyrinthe, comporte une partie non enroulée : le crochet et une partie enroulée : le limaçon.

Ligne de division des tours

18

16000 Hz

Ligne de division des segments

Figure 2 : Segments cochléaires

Le limaçon comprend deux tours et demi de spires : le tour basal, le tour médian et le tour apical. On peut décrire 4 segments à la cochlée (Deguine 0, 1990) :

Segment I Base -- 6 mm crochet

Segment II 6 -- 15 mm partie médiane du tour basal

Segment III 15 --22 mm partie latérale du tour basal

Segment IV 22 -- Apex tours médian et apical

Ces segments permettent de situer histologiquement les structures cellulaires de l'organe de Corti et du ganglion spiral.

Le labyrinthe osseux

Formé de cavités creusées dans le rocher, le labyrinthe osseux ou capsule otique est divisé en deux parties : le labyrinthe postérieur comprenant les organes de l'équilibration (vestibule et canaux semi-circulaires) et le labyrinthe antérieur formant la cochlée ou limaçon.

La cochlée est un tube osseux de 3 cm enroulé sur lui-même en deux tours et demi de spire autour d'un pilier osseux : la columelle. La lame spirale est une lame osseuse qui partage le tube en deux parties qui contiennent de la périlymphe : la rampe tympanique abouchée à la fenêtre ronde et la rampe vestibulaire abouchée à la fenêtre ovale. Les deux rampes communiquent au sommet de la cochlée par une petite ouverture, l'hélicotréma. Les deux fenêtres s'ouvrent en direction de l'oreille moyenne.

Le labyrinthe membraneux

Situé à l'intérieur du labyrinthe osseux, le labyrinthe membraneux ou canal cochléaire constitue un troisième compartiment. Il est limité en bas par la membrane basilaire sur laquelle repose l'organe sensoriel récepteur, l'organe de Corti ,en haut par la membrane de Reissner et à l'extérieur par la strie vasculaire. Il est rempli d'endolymphe, liquide dont les mouvements font vibrer les cils des cellules sensorielles auditives.

La rigidité de la membrane basilaire tendue entre la lame osseuse et le ligament spiral, lui confère des propriétés mécaniques et conditionne les modes de propagation de la vibration acoustique.

L'organe de Corti, partie neurosensorielle de la cochlée comprend des cellules de soutien
associées à deux types de cellules ciliées , internes et externes. Au sommet de toutes les

cellules ciliées , des stéréocils rigides alignés en 3 ou 4 rangées dessinent des « V » très ouverts vers le centre du canal cochléaire qui véhicule l'onde acoustique. Ces stéréocils sont composés de filaments d'actine , protéine qui leur assure rigidité et flexibilité (Morgon et al, 1990).

 

8

Figure 3 :Mise en place schématique du canal cochléaire (Morgon et al, 1990)

1 - Strie vasculaire 5 -- Cellules du ganglion spiral

2 - Membrane de Reissner 6 --Limbus spiral

3 - Proéminence spirale 7 -- Membrane tectoriale

4 - Membrane basilaire 8 -- Ligament spiral

Les cellules ciliées internes, au nombre de 3500, réparties sur une seule rangée le long de la spire cochléaire, sont entourées à la base par les cellules de soutient. A leur pôle apical se trouve la plaque cuticulaire faite d'un mélange de protéines contractiles et de protéines liées au calcium. C'est sur cette plaque que s'insèrent une centaine de stéréocils alignés en 3 ou 4 rangées de taille croissante. Les cils de chaque rangée sont attachés les uns aux autres par des ponts transversaux de matériel fibrillaire.

Le sommet de chaque cil court est relié au cil plus long situé juste derrière lui. L'ensemble de la touffe ciliaire est donc solidaire, ce qui permet de comprendre l'ouverture des canaux ioniques situés à l'intérieur des stéréocils. Sous l'effet d'une stimulation sonore, le déplacement des stéréocils agités par les mouvements liquidiens entraîne l'ouverture des canaux ioniques. Il s'ensuit une dépolarisation de la cellule ciliée interne sous l'effet d'une entrée d'ions potassium. Un neurotransmetteur, le Glutamate, est alors libéré au pôle basal des cellules ciliées, dans les synapses avec les fibres auditives. Celui-ci déclenche la transmission d'un message vers le cerveau.

REPOS

EXCITATION

 
 

Figure 4 : Dynamique des stéréocils (Morgon et al, 1990)

Chaque cellule ciliée interne est en rapport avec 10 fibres de type I (dendrites des neurones de type I, myélinisés, de gros diamètre, bipolaires). Ces fibres représentent 95% des fibres du nerf nochléaire. Chaque fibre de type I se définit par une bande de fréquence audible (dont la fréquence caractéristique est notée Fc), un seuil d'excitation et une activité spontanée (élevée si le seuil neuronal est bas, faible si le seuil est fort).Ce câblage constitue le système afférent radial. Il existe aussi un système efférent latéral constitué de fibres non myélinisées en provenance du système olivo-cochléaire et qui ont des contacts pré-synaptiques avec les fibres afférentes. Le système efférent est vraisemblablement un système inhibiteur qui limite l'intensité des stimulations trop fortes et favorise la sélectivité (mécanismes actifs par rétrocontrole). Grâce à leur système de câblage deux cellules ciliées contiguës peuvent envoyer un message légèrement différent au système nerveux central : c'est la base de la discrimination fréquentielle.

Les cellules ciliées externes se répartissent sur 3 rangées dessinant un « w » le long de la spire cochléaire. De forme cylindrique très régulière, leur taille varie de la base à l'apex de la cochlée. Maintenues par les cellules de Deiters (elles-mêmes ancrées sur la membrane basilaire), elles baignent dans la périlymphe. Les stéréocils des cellules ciliées externes présentent un gradient de longueur de l'apex à la base de la cochlée (ils sont quatre fois plus long au tour basal qu'au tour apical). Les plus longs sont implantés dans la membrane tectoriale.

Les afférences des cellules ciliées externes, peu nombreuses, sont constituées par les terminaisons dendritiques des fibres spirales provenant des neurones ganglionnaires de type II. Ces fibres fines, non myélinisées, représentent les 5% restant des fibres du nerf nochléaire. Une seule fibre innerve 10 à 20 cellules ciliées externes.

Les efférences des cellules ciliées externes, très nombreuses, sont formées par des grosses fibres myélinisées constituant le système efférent médian. Chaque fibre établit de larges contacts synaptiques avec 15 à 30 cellules ciliées externes.

Sous l'effet d'une onde de faible intensité, les cellules ciliées externes se contractent en phase avec la fréquence stimulante. Elles ont un rôle d'amplification des mouvements de la membrane basilaire, le gain apporté par leur contraction est de l'ordre de 50 décibels.

Figure 5 : Organe de Corti . 1° tour de spire . Grossissement 2000 (Pujol, 1990)

Fonctionnement cochléaire

Les cellules ciliées internes sont des récepteurs sensoriels passifs qui transforment l'énergie vibratoire transmise par les vibrations de la membrane basilaire (après avoir été amplifiée par les cellules ciliées externes) en énergie électrique conduite par le neurone (Pujol, 1990)

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Excitation d'une Cellule ciliée interne

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Dépolarisation de la
cellule ciliée interne

 
 
 
 
 
 
 
 
 
 
 
 
 

Excitation de

plusieurs cellules

ciliées externes

 
 

Amplification Filtrage

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 


·

 

Système afférent radial


·

Variation du potentiel
membranaire des
cellules ciliées externes

Contraction rapide des
cellules ciliées externes

Emission d'un message auditif


·
·


·

Contraction lente des cellules ciliées externes

·
·


·


·

Système efférent latéral

Figure 6 : Fonctionnement cochléaire

ORGANISATION FONCTIONNELLE DES VOIES AUDITIVES

NERF AUDITIF

L'association du nerf vestibulaire et du nerf cochléaire constitue le nerf VIII. Les fibres du nerf auditif correspondent aux axones des neurones du ganglion spiral ( 95 % de neurones de type I et 5 % de neurones de type II), elles se terminent dans le tronc cérébral au niveau du noyau cochléaire. Le nerf auditif transmet le message codé au système nerveux central. Il effectue :

le codage spatial de la fréquence (tonotopie)

le codage temporel de la fréquence (synchronisation)

le codage de l'intensité (taux de décharge et système relais)

le renforcement des codages temporels (adaptation nerveuse à court terme)

- le renforcement des contrastes spectraux

NOYAU COCHLEAIRE

La totalité des fibres du nerf auditif se terminent dans le noyau cochléaire, premier relais des voies auditives. C'est un complexe nucléaire formé de trois noyaux : le noyau cochléaire antéro-ventral (NCAV), le noyau cochléaire postéro-ventral (NCPV) et le noyau cochléaire dorsal (NCD).

Le noyau cochléaire présente une grande variété cellulaire, corrélée à une grande diversité de réponse (latence, décharge, inhibition). Ces fibres suivent une organisation tonotopique selon la fréquence caractéristique : des basses Fc dans le NCPV jusqu'aux hautes Fc dans le NCD. Le noyau cochléaire traite divers aspects de l'information qu'il reçoit du nerf auditif :

information temporelle

renforcement de la modulation d'amplitude

- codage du spectre des sons complexes

Après avoir été traités les signaux sont distribués aux voies auditives supérieures. Le NCAV se projette principalement par le corps trapézoïde sur l'olive supérieure latérale (OSL) ipsilatérale et sur l'olive supérieure médiane (OSM) des deux côtés. Le NCPV se projette principalement dans le complexe de l'olive supérieure et les noyaux pré-olivaires par le corps trapézoïde. Les cellules de la partie centrale du NCPV se projettent principalement par la strie acoustique intermédiaire sur les noyaux pré-olivaires. Le NCD se projette principalement sur le colliculus inférieur controlatéral par la strie acoustique dorsale.

NOCG

CGM

NVCG
NMCC

OCI

NPCI

CI NE. CI

NCCI

POIL

Nul

NVLL

NCVA

NC

NCO

NCVP

UNI] 001. 05M

NCT

N P.O

Figure 7 : Principales voies ascendantes du système auditif

NPeO noyaux péri-olivaires CT corps trapézoïde

NCT noyau du corps trapézoïde OSM olive supérieure médiane OSL olive supérieure latérale NprO noyaux pré-olivaires

NC noyau cochléaire

NCVA noyau cochléaire ventral antérieur NCVP noyau cochléaire ventral postérieur NCD noyau cochléaire dorsal

LL lemnisque latéral

NLL noyau du lemnisque latéral NDLL noyau dorsal du lemnisque latéral NVLL noyau ventral du lemnisque latéral CI colliculus inférieur

NCCI noyau central du colliculus inférieur NECI noyau externe du colliculus inférieur NPCI noyau péricentral du colliculus inférieur CGM corps genouillé médian

NDCG noyau dorsal du corps genouillé NVCG noyau ventral du corps genouillé NMCG noyau médian du corps genouillé AI aire corticale auditive primaire

AII aire corticale auditive secondaire

LE COMPLEXE DE L'OLIVE SUPERIEURE (COS)

Il est composé du noyau olivaire supérieur latéral (OSL), du noyau olivaire supérieur médian (OSM) et du noyau médian du corps trapézoïde (NMCT).

Les trois structures du COS ont des types de neurones différents, elles sont organisées de façon tonotopique :

- l'OSL est voué au moyennes et hautes fréquences

- l'OSM traite les basses fréquences.

Le COS est le lieu de convergence de l'information provenant des deux oreilles. Il a principalement un rôle dans la localisation spatiale des sources sonores.

LEMNISQUE LATERAL

Il est divisé en deux zones contenant chacune différents types cellulaires : le noyau dorsal (NDLL) et le noyau ventral (NVLL). Ses propriétés sont peu étudiées mais il semble être organisé tonotopiquement.

COLLICULUS 1NFERIEUR (CI)

Il est composé de trois noyaux : le noyau central (NCCI), le noyau péricentral (NPCI) et le noyau externe (NECI). C'est la principale structure auditive du mésencéphale, la grande majorité des structures sous-corticales y aboutissent. Les cellules du NCCI ont une bonne sélectivité tonale et sont organisées de façon tonotopique et topographique. Sensibles à des stimuli complexes, elle intègrent l'information d'autres modalités sensorielles. Les cellules du NPCI et du NECI sont disposées par ordre croissant selon la Fc, leurs courbes de réponses sont irrégulières.

Le CI est au carrefour des traitements ascendants et descendants du système auditif, c'est un centre de haute intégration de l'information. Il joue un rôle important dans :

l'analyse fréquentielle

la localisation de la source sonore

l'éveil auditif (orientation de la tête et des yeux aux bruits).

Certaines régions du CI traitent l'information des deux oreilles, d'autres sont spécifiques à une oreille. Il contient la cartographie de plusieurs caractéristiques de la stimulation sonore : carte de la périodicité

carte des fréquences

- carte de l'intensité.

LE COLLICULUS SUPERIEUR

Particulièrement sensible aux indices de localisation, il pourrait contenir la carte des délais interauraux.

THALAMUS AUDITIF

Les neurones du CI se projettent dans le corps genouillé médian du thalamus, dernier relais avant le cortex. Le thalamus auditif est composé du corps genouillé médian (CGM), du groupe postérieur du thalamus (PO),et du noyau réticulé du thalamus (NRT). Ces régions se subdivisent en différentes parties qui sont à la base d'une organisation parallèle en trois systèmes distincts : tonotopique, diffus et polysensoriel (Roman et al, 1992).

LE CORTEX AUDITIF

Une des caractéristiques très importante du cortex auditif est son organisation en plusieurs zones distinctes. Sur le plan de la cytoarchitectonie on distingue des aires primaires et des aires secondaires. Dans le cerveau humain le cortex auditif primaire se situe dans la partie médiane du gyrus transverse de Heschl (lobe temporal), il est entouré par des aires

secondaires qui répondent elles aussi à des stimuli auditifs. Le noyau ventral du CGM se projette sur l'aire auditive primaire, le noyau dorsal se projette sur une aire secondaire et le noyau médian envoie des fibres à toutes les subdivisions du cortex auditif L'aire Al envoie des projections descendantes au noyau ventral du CGM et aux noyaux central et péricentral du CI. Elle se projette aussi sur les aires auditives de l'hémisphère opposé. Le rôle des différentes aires de projection auditive du cortex a pu être apprécié par l'étude des conséquences de lésions localisées du système nerveux auditif sur les possibilités de détection et d'identification des sons. Les aires auditives corticales chez le singe et le chat jouent un rôle essentiel dans :

- l'identification de l'ordre chronologique des séquences sonores

- la mémorisation à court terme de séquences sonores

- la localisation des sons dans l'espace.

Des données convergentes sont en faveur d'une spécialisation de l'hémisphère droit dans le traitement de l'information tonale. Plusieurs faits montreraient qu'il serait possible de dissocier les aires primaires et secondaires dans le traitement de la hauteur. Certaines données suggèrent qu'un réseau neuronal distribué dans le cortex temporal et frontal droit permet d'extraire l'information tonale et de la maintenir en mémoire à court terme.

L'hémisphère gauche semble spécialisé dans le traitement de la parole et la zone de Broca semble impliquée dans la tâche phonétique, en accord avec la théorie motrice de la parole. L'aire de Broca et le lobe Pariétal gauche pourraient être responsables de la transformation d'une onde sonore en une représentation articulatoire permettant des jugements de catégorie phonétique (Zatorre, 1993).

PATHOLOGIE : LES GRANDS TYPES DE SURDITE

LES SURDITES DE TRANSMISSION

Tout obstacle à la transmission normale de la vibration sonore pourra être à l'origine d'une surdité de transmission. Ce type de surdité se caractérise par l'altération de la conduction aérienne avec conservation de la conduction osseuse.

Les surdités de transmission par atteinte de l'oreille externe peuvent avoir des causes variées : bouchon de cérumen, corps étranger dans le conduit, otites externes, malformation du pavillon ou du conduit.

Les principales causes des surdités de transmission par atteinte de l'oreille moyenne sont les otites moyennes (aiguës ou chroniques ), les obstructions tubaires, les traumatismes (directs ou indirects) et l'otospongiose.

Ces surdités peuvent le plus souvent bénéficier d'un traitement médical ou chirurgical, les réhabilitations prothétiques ne sont envisagées qu'en cas d'échec de ces traitements.

LES SURDITES DE PERCEPTION

Une surdité de perception est une atteinte de l'appareil de réception qui peut se situer à différents niveaux :

1. surdités de perception cochléaires : toxiques (médicamenteuses ou causées par des produits toxiques), traumatiques (traumatisme crânien, traumatisme sonore, traumatisme pressionnel), brusques (vasculaires ou virales), maladie de Ménière et presbyacousie (processus physiologique normal lié au vieillissement).

2. surdités de perception rétrocochléaire dont la principale cause est le neurinome de l'acoustique.

3. lésions centrales au delà du premier neurone dont les causes sont variées : tumeur, lésions vasculaires, maladies dégénératives...

Dans les surdités de perception la conduction aérienne et la conduction osseuse sont altérées.

LES NIVEAUX DE SURDITE

Le Bureau International d'Audiophonologie définit quatre types de surdité basés sur la perte pondérée sur les fréquences conversationnelles :

· surdité légère 20 à 40 dB de perte

· surdité moyenne 40 à 60 dB de perte

· surdité sévère 70 à 90 dB

· surdité profonde à partir de 90 dB (peut être de type I, II ou III)

· surdité totale ou cophose

La réhabilitation des surdités de perception est essentiellement prothétique. L'implant cochléaire peut être proposé aux sujets atteints de surdité profonde ou totale par atteinte de l'oreille interne avec un Nerf Auditif encore fonctionnel et qui ne tire pas de profit de l'utilisation d'une prothèse conventionnelle (Le Poncin-Charanchon et al, 1981).

ETAT DES VOIES AUDITIVES DANS LES SURDITES DE PERCEPTION

L'atteinte de la cochlée varie avec la cause de la surdité (Deguine, 1990).

L'organe de Corti peut être intact ou partiellement détruit dans les surdités par ototoxicité, occlusion vasculaire, les fractures temporales limitées et l'otospongiose localisée. Il est le plus souvent détruit dans les fractures temporales étendues, les méningites, les labyrinthites, certaines malformations cochléaires et la maladie de Ménière.

Les cellules du ganglion spiral sont conservées dans les malformations cochléaires ne
concernant pas le conduit auditif interne, les fractures temporales limitées et récentes, les

otospongioses limitées, la maladie de Ménière, les surdités brusques, les surdités par ototoxicité. Elles ont de fortes chances de dégénérer au cours du temps dans les fractures temporales étendues, les labyrinthites et les méningites.

Dans les méningites, les labyrinthites bactériennes, certaines fractures et les otospongioses on peut observer des ossifications.

Les noyaux cochléaires et les voies auditives centrales peuvent dégénérer à la suite d'une atteinte périphérique ou en l'absence de stimulation auditive. Au cours du développement embryonnaire, il pourrait exister une période critique où l'absence de stimulation entraînerait des lésions irréversibles.

RAPPELS ACOUSTIQUES ET PHONETIQUES

LES SONS

Les sons sont des phénomènes vibratoires qui se propagent dans l'air à 340 m. s-1. Un son peut être apériodique (impulsionnel ou continu) ou périodique (simple ou complexe).

Un son périodique simple peut être représenté par une courbe sinusoïdale, un son périodique complexe par une courbe complexe régulière. L'analyse fréquentielle de Fourier permet de décomposer une onde périodique complexe en ses composantes sinusoïdales , les harmoniques, caractérisés chacun par une fréquence et une amplitude. Les fréquences des harmoniques sont des multiples entiers d'une fréquence de base : le fondamental.

L'oreille est sensible aux caractéristiques de hauteur (fréquence du fondamental), intensité (amplitude), timbre (densité relative des harmoniques) et durée (temps de la vibration).

Pour produire les sons du langage il faut qu'un courant d'air venu des poumons via la trachée (la soufflerie sub-glottique) rencontre un obstacle : d'un point de vue acoustique cet événement est la source du son. L'obstacle peut être constitué par les cordes vocales (on obtient un flux laryngé périodique) ou par un rétrécissement ou une occlusion dans les cavités supraglottiques (on obtient un bruit). Le flux laryngé est modulé par le système pharyngobuccal (pharynx, langue, lèvres, joues, cavités nasales) qui a un rôle de résonateur, c'est à dire qu'il détermine des zones de renforcement fréquentiel : les formants. La forme, la section et le volume des résonateurs déterminent la fonction de transfert qui modifie le timbre de la source. Pour la voix parlée la fréquence du fondamental se situe :


·

chez l'homme

entre 100 et 150 Hz


·

chez la femme

entre 200 et 300 Hz


·

chez l'enfant

entre 300 et 450 Hz

LES VOYELLES

Elles résultent du passage du flux d'air laryngé à travers les cavités supraglottiques qui en déterminent le timbre. D'un point de vue articulatoire on peut les décrire en fonction de leur lieu d'articulation (antérieur ou postérieur), de leur degré d'ouverture, de leur caractère oral ou nasal et du degré d'arrondissement des lèvres. D'un point de vue acoustique les voyelles du français sont caractérisées par les fréquences des deux premiers formants F 1 et F2. La fondamentale FO et le troisième formant F3 (invariables chez un même sujet quelle que soit la voyelle) permettent de caractériser un locuteur et donnent les valeurs absolues de F I et F2.

250 350 500

 

F21-4,

Fl 3000 2000 1000

Représentation biformantique des voyelles orales du français

LES CONSONNES

Le système consonantique du français peut être décrit phonologiquement à partir des critères mode d'articulation (occlusif ou constrictif), lieu articulatoire (labiale, dentale, palatale), nasalisation (orale ou nasale) et source sonore (voisée ou non-voisée).

occlusives voisées

/b/ 1 bande grave 0 - 600

/g/ 2 bandes grave 0 - 600 aiguë

/d/ 2 bandes grave 0 - 600 aiguë

Répartition spectrale en Hz constrictives non voisées

/f/ 2 bandes grave étroite 16 - 100 aiguë large

/ch/ 1 bande large de 2000 10.000

/s/ 1 bande aiguë large

constrictives voisées

/v/ 2 bandes grave 20 - 400 aiguë

/ / 2 bandes grave 100 - 600 aiguë

/z/ 2 bandes grave 100 - 600 aiguë

 
 
 

sombre

1600

-

5.000

médian

2000

-->

10.000

clair

 
 
 

Timbre

1000

-316.000

médian

3.000

 

16.000

clair

4000

-

16.000

 

1600

-

8.000

médian

3000

-

12.000

clair

occlusives non-voisées

/p/ 1 bande grave 0 - 400 sombre

/k/ 2 bandes grave 20 - 100 aiguë large 1600 - 10.000 médian

/t/ 2 bandes grave 20 - 100 aiguë large 2000 --> 16.000 clair

les liquides

/R/ et /1/ : leur structure formantique est influencée par leur entourage vocalique.

LA CHAINE PARLEE

Dans la parole les sons ne sont pas isolés, ils s'influencent les uns les autres. Une séquence voyelle--consonne--voyelle peut se décomposer de la façon suivante :

1. Voyelle stable

2. Voyelle--consonne (transition formantique)

3. Consonne

4. Consonne-voyelle (transition formantique)

5. Voyelle stable

L'information sémantique est essentiellement véhiculée par les transitions formantiques. Elles sont plus marquées pour les occlusives que pour les constrictives, pour la voisée que pour la non-voisée correspondante.

Les éléments suprasegmentaux (mélodie, accent, rythme) sont principalement liés à la source périodique. La mélodie est définie par les variations de la fondamentale en fonction du temps, l'accent par les variations de l'intensité en fonction du temps. Le rythme est lié à la position des accents, le débit, à la vitesse d'élocution. L'intonation dépend de la hauteur, de l'intensité et de la durée.

ETUDE

BIBLIOGRAPHIQUE

SUR

L'ENVELOPPE TEMPORELLE

L'ENVELOPPE TEMPORELLE DES OBJETS SONORES

TRAITEMENT PERCEPTIF DES FLUCTUATIONS TEMPORELLES

L'analyse fréquentielle est une opération primordiale du système auditif dont la localisation est cochléaire, donc périphérique. A ce titre, l'oreille est généralement modélisée et simulée à l'aide d'un banc de filtres auditifs passe-bandes, dont les bandes passantes se recouvrent et les fréquences centrales s'échelonnent continûment de 20 à 20 kHz (Fletcher, 1940 ; Patterson, 1976).

100

80

O
.c

t 60 et 40 aa

"" 20

o

cr) 0

 

0.1 0.2 0.5 1 2 5 10 20 50

Frequency (kHz)

Figure 8: Courbe d'accord au seuil de la réponse des neurones du nerf auditif chez les
cochon d'Indes (d'après Palmer, 1987)

A l'instar de la sélectivité spectrale, la résolution temporelle est une propriété majeure de la perception auditive, dans la mesure où la plupart des sons naturels que nous cherchons à percevoir, tels que la parole ou la musique, évoluent dans le temps. Le timbre, la hauteur tonale ou pitch (en anglais), la localisation de sources sonores sont autant de propriétés des objets sonores pouvant être comprises sur la base de mécanismes temporels. Cette résolution temporelle est doublement importante dans la mesure où, très souvent, le bruit masquant en

provenance de l'environnement varie en fonction du temps. En lien étroit avec la capacité de démasquage de l'oreille, l'analyse primitive des scènes auditives utilise la cohérence des fluctuations temporelles des composantes sonores afin d'organiser ces dernières en entités sonores ou flux auditifs (Bregman, 1990). Le décodage acoustico-phonétique, l'organisation perceptive de l'environnement sonore et la perception des qualités des sons telles que la hauteur, le timbre ou le rythme dépendent donc étroitement de notre capacité à résoudre des variations temporelles fines.

5 10 15 20

5 10 15 20 0

15

10

20 0

5 10

5 10 0

510 15 20

D
1.5 kHz
2 3 4/sec

E F

2.0 kHz 2.3 kHz

1 7 8/sec 83/sec

41414414 s k4

(r)

a)
C

o

E

120

60

C
1.0 kHz
1 8 2/sec

A
0.408 kHz
7 2/sec

120

60

B
0.85 kHz
1 7 9/sec

Duration of Interval (ms)

Figure 9 : Histogramme des intervalles `interspike' pour à neurone isolé du nerf auditif
(Rose et al, 1968).

DECOMPOSITION TEMPORELLE DE L'OBJET SONORE

Une partition des fluctuations temporelles des sons est généralement réalisée en trois
intervalles, ce en raison des corrélats perceptifs et linguistiques distincts de chaque type de

fluctuation (Rosen, 1992). Ces trois types de fluctuation, illustrés par la figure ci-après, sont traditionnellement désignés par les termes d'enveloppe, de périodicité et de structure fine.

 


·

 

fréquence de la fluctuation temporelle

Figure 10 : Partition des fluctuations temporelles en trois intervalles distincts

L'ENVELOPPE

Les fluctuations de l'amplitude globale des sons comprises entre 2 et 50 Hz correspondent à l'enveloppe du signal. Les caractéristiques acoustiques de l'enveloppe, telles que l'intensité, le temps de montée et le temps de descente, déterminent respectivement les sensations de force, d'attaque et de chute, elles mêmes impliquées dans certaines distinctions phonétiques. Figure 11 : Représentation de l'enveloppe temporelle d'un son.

Une différence de force sonore peut nous renseigner sur la présence ou l'absence de voisement produit par la vibration des cordes vocales au moment de l'articulation. Elle permet ainsi la distinction entre consonnes sonores et sourdes. La distinction entre une consonne sonore /b/ et une consonne sourde /p/ est visible sur les enveloppes des deux phrases présentées ci-après.

Figure 12 : Enveloppes de deux

her bull phrases obtenues d'après le filtrage

her pool passe-bas à 20 Hz (Rosen, 1992)

1 00m s

De plus, ces basses fréquences de fluctuation temporelle engendrent la sensation de tempo ou de rythme, et correspondent précisément à la fréquence d'occurrence des syllabes ou des mots dans la parole continue (Houtgast & Steeneken, 1985 ; Plomp, 1983).

Nous reviendrons plus en détails sur cette partie.

LA PERIODICITE

Les fluctuations de l'amplitude du son comprises entre 50 et 500 Hz environ correspondent à la périodicité du signal et engendrent une sensation de hauteur tonale (Ritsma,1962) dénommée hauteur fondamentale. Les bruits larges-bandes modulés en amplitude produisent aussi une sensation de hauteur fondamentale lorsque la fréquence de modulation est comprise entre 50 et 500 Hz (Burns & Viemeister, 1976, 1981). La figure ci-après présente cet intervalle de fluctuations.

100

............z .......
·-::::::::_.....

./

· / ,..

//

;' , , \

- ,'-_,(." \

\ .,

e/

9. \

il \ \

ii \ \

\s,a


·

- il e \ \ \ -

_. ..'.

\ \\,, \ _


·
·
·.,,t

1

.1.

\ : -

o

80

20

50 100 _ 200 400 800

MOOULATION FREQUENCY (Hz)

Figure 13 : Région d'existence de la hauteur des bruits modulés en amplitude. Chaque courbe correspond à un sujet (Burns et Viemeister, 1976).

Le signal de parole présente une périodicité (ou voisement) produite par la vibration des cordes vocales dans le larynx. Une distinction phonétique majeure et commune à toutes les langues du monde est effectuée entre signaux périodiques et apériodiques ( /b/ et /p/ par exemple).

 

[b)

[pl

Figure 14 :Ondes de pression produites par deux consonnes /b/ et /p/. /p/ n'est pas voisé (très irrégulier), /b/ est voisé (casi-périodique). D'après Rosen, 1992.

 
 
 
 
 
 
 

10 m s

 
 
 

LA STRUCTURE FINE

La structure fine des sons se réfère finalement aux fluctuations temporelles comprises entre 600 et 10 kHz environ. Elle renseigne essentiellement sur les variations de la forme spectrale du signal (par exemple, les transitions formantiques dans les sons de parole), et par conséquent sur le timbre des sons complexes (voyelles ...).

L'ENVELOPPE TEMPORELLE DES SONS

L'organisation perceptive de l'environnement sonore, la perception du timbre des sons et
l'intelligibilité de la parole dépendent étroitement de la capacité du système auditif à résoudre
les variations temporelles lentes de l'amplitude des sons, i.e., l'enveloppe temporelle des sons.

ASPECTS PERCEPTIFS

L'enveloppe au sens strict correspond aux fluctuations lentes de l'amplitude globales des sons, comprises entre 2 et 50 Hz. Les caractéristiques acoustiques de l'enveloppe, telles que l'intensité, le temps de montée, le temps de descente, et la fréquence de fluctuation déterminent respectivement les sensations de force, d'attaque, de chute, de rugosité et de tempo. La forme de l'enveloppe temporelle est également impliquée dans la perception du timbre et dans les processus de reconnaissance d'objets sonores. Une note de piano, par exemple, possède une attaque rapide et une chute relativement lente. Cette même note enregistrée sur une bande puis écoutée en sens inverse change de timbre et évoque celui d'un accordéon. Cet effet souligne bien l'importance des indices temporels dans la perception du timbre car les spectres de puissance des versions 'avant' et 'arrière' du signal sont identiques.

Des travaux portant sur la mesure de l'activation des zones corticales avec une stimulation sonore on montrés que le traitement cortical d'un signal de parole était très différent des versions 'avant' et 'arrière'. Le signal de parole émis à l'envers (par rapport au temps) n'était pas traité par le cerveau comme un signal de parole.

SENSIBILITE A L'ENVELOPPE

Une question se pose donc : comment mesurer la sensibilité auditive d'un patient à l'enveloppe temporelle ?. Cette capacité à suivre ces fluctuations est directement reliée à l'acuité (ou la résolution) temporelle du système auditif. La description de cette acuité par l'évaluation du plus court intervalle de silence détectable (gap détection) au sein d'un son constitue une approche limité, car elle ne nous renseigne pas sur la nature de la `représentation auditive interne' des fluctuations, i.e., sur le type de filtrage effectué par le système auditif dans le domaine temporel. Une description plus complète de la résolution temporelle du système auditif peut être réalisée en mesurant la fonction de transfert de modulation temporelle (TMTF, pour Temporal Modulation Transfer Function). Dans ce paradigme psychoacoustique (Viemeister, 1979), les stimuli sont des bruits larges bandes modulés sinusoïdalement en amplitude à une fréquence donnée. La TMTF relie la performance de déduction de la modulation d'amplitude à la fréquence de modulation. La performance (ou le seuil) de détection de la modulation d'amplitude, mesurée en décibels (20 log(m)), correspond à la plus petite profondeur de la modulation d'amplitude, m, permettant de juste discriminer un bruit non modulé. Les TMTFs obtenues par Viemeister (1979) présentent une caractéristique passe-bas : la performance de détection est constante jusqu'à environ 8 Hz. Elle se réduit de 3dB à environ 50 Hz, puis elle décroît de manière monotone de 3-4 dB/octave (on parle de 'pente d'atténuation') jusqu'à approximativement 800 Hz. Le seuil de détection de la modulation d'amplitude est constant au-delà de 1 kHz. La fréquence de coupure à --3dB de la TMTF permet de déterminer la constante de temps du filtrage passe-bas sous-jacent, à savoir 2-3 ms.

E

0 -15

o

C,J

-20

-25

-10

-30

-5

o

t 1 1 I I' 1 1 I!

//

2 4 8 16 32 64 125 250 500 1000 2000 4000 0

f,,,

Figure 15 : Fonction de transfert de modulation d'amplitude (TMTF) mesurées chez quatre
sujets. La porteuse est un bruit large bande. D'après Viemeister, 1979.

EFFET D'UN DEFICIENT AUDITIF PERIPHERIQUE

Les résultats obtenus chez des patients présentant une surdité sensorineurale sont similaires à ceux obtenus chez des sujets normo-entendants, lorsqu'un certain nombre de précautions méthodologiques sont prises, tel que le contrôle du niveau de stimulation et de la bande passante audible (Bacon & Viemeister, 1985 ; Moore, Shailer & Shooneveldt, 1992 ; Lorenzi et al, 1997, Demany et Lacher-Fougère, 1997). Ces Résultats montrent que le mécanisme responsable de l'intégration temporelle des sons (et de l'extraction de l'enveloppe) n'est pas affecté par une atteinte cochléaire. Ils suggèrent donc que ce mécanisme se situe à un niveau central (rétro-cochléaire) plutôt que périphérique (cochléaire).

-30

- 25 -20

E

° -15

o
ru

- 10

-5

0

- 30 -25

- 20

E

° -15

ru

-10

- 5

.
.

.

.

.

I

AW

f

1

I

I 1

I

f

-
--

_

--

-- .....,.,

..

PM

-

A impaireo ear


·
normal ear equal SPL

normal ear equal SL -11141144`

.

Iligt, _,

.

.

F P

 
 

Illiiiiig-1144

1111111,

--

--

I

I

Mean

1 I I I 1

. . .

I

-

-

4 8 16 32 64 128 256 512 4 8 16 32 64 128 256 512

Modulation frequency (Hz)

Figure 16 : Comparaison de la Fonction de transfert de modulation d'amplitude (TMTF)
entre le normo-entendant et le sujet atteint d'une surdité de perception cochléaire.
D'après Moore et al, 1992.

Les TMTFs obtenues chez des patients porteurs d'un implant cochléaire (Shannon, 1992) et de patients implantés au niveau du noyau cochléaire (Shannon & Otto, 1990) sont également similaires à celles obtenues chez des sujets normo-entendants (Shannon, 1992 ; Kohlrausch, 1993).

D'autres données montrent que la perception de la forme de l'enveloppe temporelle mesurée à l'aide de paradigmes psychoacoustiques différents de celui de la TMTF, n'est pas dégradée chez les patients implantés cochléaires (Hochmair & Hochmair-Desoyer, 1985). Dans certains cas, elle peut même être meilleure que celle des sujets normo-entendants (Lorenzi, Gallégo & Paterson, 1997). Ces résultats confortent donc l'hypothèse selon laquelle les facteurs limitant

la détection de l'enveloppe temporelle sont situés au-delà du nerf auditif. Ceci indique également que l'information d'enveloppe (rythme syllabique, timbre) reste accessible dans le cas d'une atteinte cochléaire.

Nucleus Device 1000 Hz Carrier 100 msec/phase

--

·
·
·

·
·

... e ......
·

.`..
·


·

NI

O (1.2) 6 dB SL

· (21.22) 17 dB SL

I i 111111

'e....,,f...r.___V\\

..s,


·

N2

(20.22) 4 dB SL --- Bacon and Viemeister 1985

--

....

--


·

,,-.

I- II

.....


· u
·

lv,


·

.. . ..._._____.,...
·

--


·

_ N3 1
CI (1.2) 7 dB SL

(21.22) 9 dB SL

I

--

I I IIIIII1 I I II

N4 A ',
A (1.2) 12 dB SL

(21.22) 16 dB SL
--

_

 

--4

--30

--20

20

10

--10

--30

10 100 500 10 100 500

Modulation Frequency (Hz)

Figure 17 : TMTF mesurées chez quatre sujets porteurs d'un implant cochléaire. (symbole
plein : électrode apicale, symbole vide :électrode basale). D'après Shannon, 1992.

Certains auteurs montrent que les performances de reconnaissance des sujets porteurs d'un
implant cochléaire sont liées à la qualité d'extraction d'un schème de l'enveloppe continue

dans un train de pulse (Collins et al, 1994) mais aussi a la forme de la TMTF en fonction de la fréquence de stimulation (Cazals et al, 1994).

ASPECTS ACOUSTICO-PHONETIQUES

Une fréquence de fluctuation de 4 Hz correspond à la fréquence d'occurrence des syllabes ou des mots dans la parole continue. La perception des ces fluctuations d'amplitude lentes jouent donc un rôle certain dans la délimitation des unités linguistiques (voyelles, syllabes ou mots).

Ces fluctuations d'enveloppe sont également impliquées dans plusieurs distinctions phonétiques importantes. Une différence de force sonore peut nous renseigner sur la présence ou l'absence de voisement produit par la vibration des cordes vocales au moment de l'articulation. Elle permet ainsi la distinction entre consonnes sonores et sourdes (/b/ versus /p/, par exemple). Une différence d'attaque nous informe également sur la nature fricative ou affriquée (4/ versus hl, par exemple) des consonnes. Finalement, plusieurs études ont montré que la reconnaissance des signaux de parole pouvait être effectuée sur la base des indices d'enveloppe temporelle.

Table 4-1.

Assignment of consonant features

 
 
 

Consonant

Voicing

Nasalité

Frication

Duration

Place

Envelope

m

2

2

I

1

1

4

n

2

2

1

1

2

4

f

1

1

2

1

1

3

V

2

1

2

1

1

2

s

1

1

2

2

2

3

I

1

I

2

2

3

3

a

2

1

2

1

1

2

z

2

1

2

2

2

2

P

1

1

1

1

1

I

b

2

1

1

1

1

2

t

1

1

1

1

2

I

d

2

1

1

1

2

2

k

1

1

1

1

4

1

g

2

I

1

I

4

2

d3

2

1

2

1

3

2

I

2

1

1

1

2

4

Figure 18 : Decomposition des consonnes en partie élémentaires indissociable qu'est le trait phonétique. L'enveloppe, la durée et le voisement (voicing) sont des traits définis uniquement par des caractéristiques temporelles. D'après Wilson et al, 1990.

 
 

b. 'a ta'

1 2 3 0lI

 
 
 
 

70 Cc/ J3 .74 lel le

 
 

c. 'a no' d ma'

e. 'a wa'

f. 'a yo'

 
 

g. 'a snc'

h. 'a cha'

 

i. 'a tha'

13g4ÎIL0.400J,

Figure 19 : Exemple de

l'amplitude de l'enveloppes sur 9 consonnes comprise entre deux voyelles. D'après Summerfield, 1985

Katz et Berry (1971), Van Tassel et al (1987), et plus récemment Shannon (1995) ont obtenu d'excellents scores d'intelligibilité de la parole en modulant des bruits blancs ou des bandes de bruits par l'enveloppe de signaux de parole.

100

80

ir7--

U

CJ -

a. 20

°F Consonants Vowels Sentences

1 2 3 1 1 2 3 4 1 2 3 4

Number of bands

A

4

C

g, 40 r

g. 20 67A1°

73 l-

'

LI/

Vcicing F Manne

c.:

0 Place

f

2 3 4 1 2 3 4 1 2 3
Number of bands

Figure 20 : Reconnaissance des

consonnes, voyelles et phrases chez huit sujets normo-entendants en fonction du nombre de bandes de bruits filtrés à la place de la structure fine du signal. D'après Shannon et al, 1995

a

o

u

Y

10

90

10

10

70

10
10
50

90

50

10

90

50

50
90
10

10

90

a

en o

D

e

I--

y

25133142

IIIIIIIIIIII

RESPONSE

r

m

n
,j

b

d

g
p

k

h sh

s

RESPONSE

I rmnj vbdgp t k h shs f

501

 

3

16

13316 1

13 1

I I

1

 

1 1 1

 

I

 

94

 
 

6

 
 
 
 
 
 
 
 
 

42

53

6

 
 
 
 
 
 
 
 
 

17

72

11

 
 
 
 
 
 
 
 

14

 
 

22

44 14

 
 
 
 
 
 
 
 
 

11

6

14 53

3

3

 
 
 
 

11

 
 
 
 

6

8 22

42

14

8

 
 
 
 
 
 
 
 

6

8

11

61

8

 
 

3

3

 
 
 
 
 

6 8

6

 

81

 
 
 
 
 
 
 
 
 
 
 

3

6

67

3

11

 
 
 
 
 
 

3

3

 

19

47

17

3

 
 
 
 
 
 
 

3

8

19

69

 
 
 
 

6

8

 
 
 
 
 
 
 

86

 
 
 
 
 
 
 
 
 
 
 

6

89

 

6

 
 
 
 
 
 
 
 
 

22

56

22

Figure 21 : Reconnaissance sans lecture labiale des voyelles et consonnes chez un groupe de
six sujets porteur d'un implant cochléaire mono-électrode Vienna de 3M
D'après Hochmair et Hochmair-Desoyer, 1985.

RESPONSE

cn

D

--1 s

D sh

20 13

F-- ch

z 7 7 rn

d

bdgp 1001

7 60 33

20 80

60 33 7 7 80 7

20 80

20 13

7

111111111113 1

k s sh th ch z rn n n 1 y

1111111

100

13 47 7

7 53:27

20 60

13

7 7

7 13

47 13 7

27 60 7..«

I 187

1

7

7

100

7 93

40 20

Figure 22 : Reconnaissance sans lecture labiale des consonnes chez un groupe de trois sujets porteur d'un implant cochléaire Inaired à quatre canaux. D'après Dorman et al, 1990.

RESPONSE RESPONSE

bdgp t ksshthchz mn
· I b d g k s sh th ch z nv I y

b 51 120

1 6

 

13 13

 

601201

 
 
 

d 14 48

28

 
 

d

40 20

 
 

40

g 3 31

48

6

3 9

 
 

20 40

20

 
 

20

P

 

46

43_6

 
 
 
 
 
 
 

100

t --

 

23

28 46

 
 
 
 

80

20

 
 

k 3

 

1 1

26 57

3

 
 
 
 
 
 
 

60

.1 6

3

17

6

26 14

6 6


·

 
 
 

4800

20

sh

 
 

97

3


·

 
 

100

 

th 20 3

3 9

 

17 37

3 3

th

40 20

 
 

20 20

 
 
 
 

83

ch

 
 

20

60 20

z 6

 

3 3

 

60 14 3

z

 
 
 

80 20._

in 1 3

 

3

60

6 20

 
 
 
 

20 40

40

 
 
 

14:57

14 14

 
 
 
 

20 60

20

 
 
 

74 17

 
 
 
 
 

100

 
 
 

6 3

60:23 9

 
 
 

60 20

20

III 1 1 1 1 1 1 1 1 1 I 1100 y

11111111111 002011

 

Les bonnes performances d'intelligibilité de la parole obtenues chez des sujets porteurs d'implants cochléaires mono-électrodes (Hochmair et Hochmair-Desoyer, 1985.) ou du système percutané Inaired à quatre canaux (Dorman et al, 1990) témoignent également de l'importance des indices d'enveloppe dans la compréhension de la parole.

Des études (Lawson, Wilson et Finley, 1992), montrent que l'intelligibilité chez les sujets porteurs de l'implant cochléaire Inaired est fonction du nombres de canaux actifs. Avec six canaux, le score est proche du sans faute.

Voi

.5. Nsl

E- Fric


·7
.3

Dur

Pic

Male

Female

Figure 23 : Identification de la parole et des trait phonétiques en fonction du nombre de canaux utilisés par l'implant cochléaire Inaired. D'après Lawson, Wilson et Finley, 1992

Env

4 3 2 1

Channels

Des comparaisons entre le système Inaired à quatre canaux (qui fait principalement passer des informations temporelles) et le système Nucleus à 20 canaux (qui fait principalement passer des informations tonotopiques) montrent une supériorité dans la discrimination des consonnes (signaux non-stationnaires) pour le système Inaired et au contraire une supériorité du système Nucleus dans la discrimination des voyelles (signaux casi-périodiques) (Tyler RS et al, 1997).

DEGRADATION DE L'ENVELOPPE ET INLIGIBILITE

Des études chez le normo-entendant, principalement investiguées par l'équipe de Drullman (Drulman et al, 1994a,b,1995, 1996 ; Noordhoek & Drullman, 1997) ont caractérisé la perte d'intelligibilité en fonction de la dégradation de l'enveloppe temporelle des mots. Les résultats montrent que l'information est principalement contenue dans les fréquences comprises entre 1 à 32 Hz. Plus le spectre de l'enveloppe est réduit plus l'intelligibilité est faible.

Envelope cutoff frequency

I Hz 2 Hz 4 Hz 8 Hz 16 Hz 32 Hz

LP

0.17

0.29

0.49

0.70

0.82

0.89

HP

0.94

0.84

0.60

0.37

0.20

0.15

Tableau I : Intelligibilité en fonction du filtrage de l'enveloppe du signal de parole
(en passe-bas et en passe-haut). D'après Drullman et al, 1994.

ETUDE

EXPERIMENTALE

SUR

L'ENVELOPPE TEMPORELLE

RECONNAISSANCE DE LA PAROLE PAR L'ENVELOPPE

OBJECTIF

L'étude bibliographique a montrée l'importance de l'enveloppe du signal de parole sur l'intelligibilité. Contrairement à la structure fine du signal, l'analyse de l'enveloppe du signal ne demande pas une analyse très complexe par le système auditif périphérique. En effet, l'intégration temporelle des sons (mesures de TMTF) n'est pas affectée par une atteinte cochléaire.

Nous avons voulu évaluer l'importance de l'enveloppe de la parole en éliminant toute la structure fine du signal. Ce genre de traitement peut présenter un intérêt pour les surdités ayant une forte dégradation de la sélectivité fréquentielle ou seul le facteur temporel peut intervir (par exemple les surdités profondes ou sévères ont une tonotopie cochléaire très frustre, seules les caractéristiques temporelles du signal peuvent être codées ; ce traitement peut aussi être intéressant pour l'implant cochléaire).

Son principe de base est de garder l'enveloppe du signal pour différents canaux (1 à 4) et de remplacer la structure fine de chaque canal par un bruit passe-bande équilibré en énergie.

Contrairement aux travaux de Shannon (1995), nous ne voulons pas qu'il y ait une séance d'entraînement longue qui permet d'améliorer les scores de reconnaissance (8 à 10 heures par sujet testé). Cela permet, d'éviter un recodage des sons. L'expérience sans entraînement permet de mesurer l'intelligibilité correspondant à celle obtenue par un traitement de la voix le plus naturelle possible.

MATERIEL ET METHODE

TRAITEMENT DU SIGNAL

Afin d'analyser l'intelligibilité de l'enveloppe du signal de parole, nous avons due développer un traitement du signal qui extrait l'enveloppe temporelle pour différents canaux fréquentiels et qui remplace la structure fine par un bruit ayant un spectre moyen équivalent.

8

3 4 5

2

2

5

0 -6 -12 -18 -24 -30

Les bandes passantes de chaque canal

Figure 24 : Spectre de la parole à long terme et spectre procurant la meilleure intelligibilité. Les échelles de décibels portées en ordonnées sont arbitraires. D'après Gelis, 1993.

I

100 200 500 1000 2000 5000 10000 Hz

Le choix des bandes de fréquences à utiliser est délicat car il va influencer directement l'intelligibilité du signal traité.

Beaucoup de travaux sur les vocodeurs et sur la reconnaissance de la parole ont étudié l'intelligibilité en fonction des zones de fréquences du signal.

La zone des fréquences médium (1000-4000 Hz) est celle qui fournit le plus d'informations sur le signal de parole. La zone des fréquences graves (0-500 Hz) comporte peu d'informations pertinentes et beaucoup de bruit. Des études récentes, notamment dans le domaine de l'implant cochléaire ont aussi démontré l'importance des fréquences comprises entre 4000 et 8000 Hz sur l'intelligibilité.

Afin d'obtenir un compromis entre le nombre restreint de canaux, l'équilibre en énergie de chaque canal et l'intelligibilité, nous avons choisi quatre bandes d'un octave chacune comprises entre 500 et 8000 Hz (500-1000, 1000-2000, 2000-4000 et 4000-8000 Hz).

Bruit de remplacement

Dans chaque canal la structure fine est remplacée par un bruit passe-bande filtré dont le spectre moyen doit correspondre au spectre moyen de la structure fine contenue dans le canal. Comme le montre la figure 24 le spectre à long terme de la parole correspond grossièrement au spectre moyen d'un bruit rose.

densité spectrale dB/Hz

bruit blanc

fréquence

densité spectrale dB/oct


·

. .
· :
·
· :
· :
· :
· :
· :
· :

· :
· : :
· : :
· : :
· :
· : :
·

bruit blanc


·
:
· :
·

t 3 dB

·
·
·

bruit

octaves

Figure 25 : Spectres de bruit blanc et de bruit rose en bandes fines et en bandes d'octaves. D'après Gelis, 1993.

Plutôt que d'utiliser comme Shannon, un bruit blanc filtré en passe bande nous avons préféré utiliser un bruit rose filtré en passe bande. Cela a permis d'équilibrer chaque bande d'octave en énergie sans qu'il y ait de correction à faire. Le bruit rose avant filtrage est le même dans tout les canaux, cela évite d'engendrer des problèmes de perception de fréquences fantômes situées à la jonction de chaque bruit filtré.

Mesure et bande passante de l'enveloppe :

L'enveloppe de chaque canal est obtenu en redressant le signal puis en le filtrant par une fonction de type passe-bas. La fréquence de coupure à été choisie à 250 Hz pour faire passer l'enveloppe et une partie de la périodicité. Une voix d'homme à été utilisée pour les tests (le fondamental laryngé est à environ 100-110 Hz dans ce cas).

./\ A

vm411iMMINYIPOPPOPM

Figure 26 :Exemple avec le mot 'terrain' avant et après traitement sur 4 canaux.

Comme le montre la figure 26, le signal traité préserve l'enveloppe et une partie de la périodicité du signal d'origine, par contre la structure fine du signal a disparu.

Un schéma général sur le traitement effectué pour un système à quatre canaux est représenté figure 27. Pour les cas où l'on n'utilise que 1, 2 et 3 canaux, le principe de traitement est le même (il suffit de supprimer une partie du schéma).

0


·


·

 
 
 

Redressement

Filtre passe bas

 

500-1000 Hz

 

250 Hz

 
 

Filtre

Redressement

Filtre passe bas

Signal de

 

1000-2000 Hz

 

250 Hz

Parole

 

Filtre

Redressement

Filtre passe bas

 
 

2000-4000 Hz

 

250 Hz

 

Filtre

Redressement

Filtre passe bas

 

4000-8000 Hz

 

250 Hz

 

Filtre

500-1000 Hz

Bruit rose

Filtre
1(100-2000 Hz

Filtre
2000-4000 Hz


·

Filtre

4000-8000 Hz

Signal
Traité

Figure 27 : Schéma simplifié du traitement de signal effectué
pour remplacer les structures fines de chaque canal par un bruit rose filtré.

LISTE DE MOTS

Nous avons choisi les listes utilisées classiquement en cabinet d'audioprothèse pour mesurer
l'intelligibilité. Ce sont 40 listes de 10 mots dissyllabiques numérisées sur CD ROM, elles ont
été élaborées par monsieur Fournier. Elles sont prononcées par deux locuteurs différents de

sexe opposé, seule la voix d'homme a été utilisée dans cette expérience (la mesure de son fondamental laryngé est comprise entre 100 et 110 Hz).

EXPERIMENTATION

Pour chaque sujet testé nous avons passé deux listes par condition sur l'oreille droite. L'intensité de stimulation est à environ 30 dB SL

Pour chaque sujet normo-entendant quatre conditions dans un ordre aléatoire ont été choisies :

- un canal (2000-4000 Hz),

- 2 canaux (1000-2000, 2000-4000 Hz),

- 3 canaux (1000-2000, 2000-4000, 4000-8000 Hz),

- 4 canaux (500-1000, 1000-2000, 2000-4000, 4000-8000 Hz)

Pour chaque sujet presbyacousique une condition a été choisie ; le nombre de conditions a été réduits par rapport aux normo-entendants car le test était plus difficile pour eux :

- 4 canaux (500-1000, 1000-2000, 2000-4000, 4000-8000 Hz).

Pour ne pas surprendre le sujet testé et pour l'habituer au signal déformé, avant de commencer le test, une liste de mots traités avec quatre canaux a été passée.

Chaque mot de chaque liste a été écouté 3 fois, une seule réponse était demandée à la fin de la troisième passation.

Pour chaque mot deux mesures d'intelligibilité ont été effectuées :

1- la reconnaissance du mot (0 ou 100%),

2- le pourcentage de phonèmes reconnus dans la liste de mots (de 0 à 100%).

SUJETS TESTES

20 sujets normo-entendants ayant une perte auditive sur l'oreille droite inférieure à 10 dB sur les fréquences 125, 250, 500, 1000, 2000, 4000 et 8000 Hz ont participé à cette étude. L'âge des sujets est en moyenne de 28 ans (déviation standard de 5 ans). La population est composée de 10 hommes et 10 femmes.

4 sujets atteints d'une surdité de perception (presbyacousie) ayant une perte auditive moyenne sur l'oreille droite de 12 dB à 125 Hz, 14 dB à 250 Hz, 16 dB à 500 Hz, 19 dB à 1000 Hz, 26 dB à 2000 HZ, 48 dB à 4000 Hz et 65 dB à 8000 Hz ont participé à cette étude. L'âge des sujets est en moyenne de 83 ans (déviation standard de 7 ans). La population est composée de 4 femmes.

100

80

so

-V" 40 20 0

100

80


· 60 40 20

RESULTATS & DISCUSSION

1 2 3 4 1 2 3 4

Nombre de tonus Nombre de comme

Figure 28 : Pourcentage et déviation standard de phonèmes reconnus (graphe de gauche)
et pourcentage et déviation standard de mots reconnus (graphe de droite) en fonction du
nombre de canaux pour une population de 20 normo-entendants.

Les mots et phonèmes sont très bien reconnus par les normo-entendants (90 % pour les mots et 95 % pour les phonèmes chez certains sujets). Les résultats sont similaires à ceux décrit par Shannon et al, 1995, mais dans ses conditions expérimentales, il y avait un entraînement au préalable d'une dizaine d'heures. Ces résultats corroborent aussi ceux de Lawson et al, 1992 obtenus chez les sujets implantés cochléaires.

L'intelligibilité (des mots et des phonèmes) croit en fonction du nombre de canaux. Une analyse statistique par Anova montre des différences statistiques de performances en fonction du nombre de canaux utilisés (p<0.001 : 43, 42, 41, 32, 32, 21).

Les résultats montrent qu'un système auditif qui peut faire la différence entre les quatre fréquences 750, 1500, 3000 et 6000 Hz et qui a une résolution temporelle normale peut avoir un intelligibilité d'environ 95 % sans qu'il soit besoin de recoder l'information auditive sous une forme différente.

60

40

· _

cr

· _

20

C

0

Phonème

Mot

Figure 29 : Pourcentage et déviation standard de phonèmes et mots reconnus avec 4 canaux
pour une population de 4 sujets presbyacousiques.

Les résultats obtenus chez les presbyacousiques sont loin d'être médiocre en effets les sujets ont environ 45% de reconnaissance sur les phonèmes et 15% sur les mots. Il est bon de noter que le signal est envoyé à 30 dB SL et qu'il n'y a pas de facteur correcteur d'amplification de chaque bande en fonction de l'audiogramme des sujets. Les performances seraient sûrement améliorés si l'on corrigeait les amplification de chaque canal en fonction de la perte de chaque sujet.

CONCLUSION

Cette expérience a démontré l'intérêt de l'enveloppe du signal de parole sur l'intelligibilité. Quatre canaux fréquentiels, où l'on fait uniquement passer l'enveloppe temporelle, sont suffisants pour obtenir 90 à 95 % de reconnaissance phonétique.

Cela peut en partie expliquer les bonnes performances obtenues, chez certains enfants sourds profonds utilisant la prothèse à transposition de fréquence de Lafon (Lafon, 1996), chez certains patients implantés cochléaires en mono-électrode (Hochmair & Hochmair-Desoyer, 1985) ou avec le système Inaired à 4 canaux (Dorman et al, 1990).

Il serait intéressant de poursuivre cette étude sur des populations plus importantes de sujets sourds (pour différents types et niveaux de surdités). De plus, il serait bon d'équilibrer en énergie, chaque canal en fonction de la perte auditive du sujet testé.

L'utilisation de l'enveloppe chez les sujets atteints d'une surdité de perception est actuellement mal adaptée avec les appareils conventionnels.

Lorsque l'on adapte l'énergie acoustique par une aide auditive au sujet atteind d'une surdité de perception, on utilise actuellement des systèmes de compression qui ont des seuils de déclenchement avec des temps d'attaque et de retour variables. Cela entraîne évidemment des distorsions de l'enveloppe temporelle du signal en dynamique (par contre pour un signal stationnaire, il n'y a pas de distorsions fréquentielles ; cf figure 30). Une compression qui permettrait de ne pas déformer l'enveloppe tout en préservant le spectre fréquentiel instantané serait sûrement plus avantageuse.

Signal d'entrée

Effet du temps de réponse

Signal de sortie

Effet du
temps de retour

Figure 30 : Circuit classique de compression en régime dynamique. Le temps d'attaque et le temps de retour modifient la forme de l'enveloppe mais aussi engendrent des distorsions sur la structure fine. D'après Gelis, 1993.

COMPRESSION ET EXPANSION PAR L'ENVELOPPE

OBJECTIF

L'expérience précédante a montré l'importance de l'enveloppe sur l'intelligibilité et a soulevé le problème de distorsion de l'enveloppe lors de la compression du signal dans les aides auditives actuelles (cf figure 30).

Nous avons ensuite voulu estimer les performances d'un nouveau type de compression ou d'extension du signal de la parole. Des tests d'intelligibilité dans le bruit ont été choisis pour évaluer la qualité de la compression. La technique utilisée pour compresser ou étendre le signal se base sur la modification de l'enveloppe temporelle en préservant sa forme et la structure fine du signal. L'avantage de ce type de technique est d'éliminer tout effet indésirable de distorsion lorsque le signal n'est pas stationnaire.

Lorsqu'un sujet à un recrutement important, il est intéressant d'utiliser cette technique de compression car elle préserve la structure fine et la forme de l'enveloppe du signal. Moore, 1992 montre que pour simuler une surdité avec une audition normale (surdité de perception) l'enveloppe du signal doit être comprimée par sa racine carrée (compression de 1/2).

MATERIEL ET METHODE

TRAITEMENT DU SIGNAL

L'objectif du traitement du signal est de préserver le spectre instantanée et la forme de l'enveloppe temporelle du signal lors d'une compression. Il est donc nécessaire d'extraire séparément l'enveloppe et la structure fine du signal, puis de compresser uniquement l'enveloppe.

Redressement

Filtre passe bas
250 Hz

Puissance
(X-l)

Filtre passe bas
250 Hz

Signal de
Parole

Signal
Traité

Figure 31 : Schéma simplifié du traitement de signal effectué pour compresser
l'enveloppe du signal bruité. Si l'on veut compresser par 1/2 la puissance sera --1/2.

Pour pouvoir compresser l'enveloppe nous avons tout d'abord extrait l'enveloppe du signal (par redressement et filtrage passe bas à 250 Hz). Nous avons ensuite élevé l'enveloppe à une puissance X-1, X étant le facteur de compression. Puis nous avons refiltré l'enveloppe par un filtre passe bas de 250 Hz pour éliminer les fréquence induites par le passage à la puissance. Pour finir nous multiplions le signal d'origine par l'enveloppe traitée (on retrouve donc l'enveloppe à la puissance X-1 +1=X ; cf figure 31)

 

A4 A2 At

A v2 A v4

A"8

20 40 60 80

Intensité d'entrée (dB SL)

0

0

80

U)

o

, 40

-o

Figure 32 : fonction entrée sortie de la compression de l'enveloppe
pour des X=1/8, 1/4, 1/2, 1, 2 et 4.

Nous avons choisi les compressions suivantes, X=1/8, 1/4, 1/2, 1, 2 et 4. Les fonctions entré/sortie de la compression sont représentées figure 32. X=1, correspond au signal d'origine, X=2,4 correspond à une extension du signal, X=1/2, 1/4 et 1/8 correspond à une compression du signal.

La figure 33 nous donne un exemple des différents traitement obtenu sur les mots 'le bouchon' prononcé avec un rapport signal sur bruit (S/B) de 12dB (cf X=1). Comme le montre la figure 33 dans cet exemple, la compression du signal diminue le rapport signal sur bruit (pour X=1/2 S/B passe de +12 à +6dB, X=1/4 S/B passe de +12 à +3dB, X=1/2 S/B passe de +12 à +1.5dB). Par contre l'extension du signal augmente le rapport signal sur bruit (pour X=2 S/B passe de +12 à +24dB, X=4 S/B passe de +12 à +48dB). Les modification des rapport S/B devrait influencer l'intelligibilité.

Figure 33 : Exemple du traitement de signal pour le mots 'le bouchon' pour les différents X
pour un rapport signal sur bruit de +12 dB

X

-6

0

6

12

4

-1.5

0

1.5

3

2

-3

0

3

6

1

-6

0

6

12

1/2

-12

0

12

24

1/4

-24

0

24

48

1/8

-48

0

48

96

Tableau I: S/B après traitement en fonction de X et du S/B avant traitement.

Comme le montre le tableau I, le traitement effectue modifie grandement les S/B donc a priori, cela devrait se répercuter sur l'intelligibilité.

LISTE DE MOTS

Nous avons choisi les mêmes listes que dans l'expérience précédante. Afin de rendre le test plus difficile, pour chaque liste, on surajoute un bruit rose pour masquer en partie le spectre de la parole (cf figure 24). Différents rapports signal bruit sont testés (12, 6, 0 et --6 dB).

EXPERIMENTATION

Pour chaque sujet testé nous avons passé une liste par condition sur l'oreille droite. L'intensité de stimulation est à environ 30 dB SL

Pour chaque sujet six types de compressions avec quatre rapports signal sur bruit ont été choisies (soit 24 listes) :

- compression de 1/8, 1/4, 1/2, 1 et expansion de 2 et 4.

- rapport signal sur bruit de 12, 6, 0 et --6 dB

Pour chaque mot deux mesures d'intelligibilité sont effectués :

1- la reconnaissance du mot (0 ou 100%),

2- le pourcentage de phonèmes reconnus dans la liste de mot (de 0 à 100%).

SUJETS TESTES

Dans cette deuxième expérience seule la population de normo-entendant a été testée. L'objectif étant, dans un premier temps, de vérifier que la compression du signal n'engendre pas de détérioration sur l'intelligibilité en fonction du S/B.

20 sujets normo-entendants ayant une perte auditive sur l'oreille droite inférieure à 10 dB sur les fréquences 125, 250, 500, 1000, 2000, 4000 et 8000 Hz ont participé a cette étude. L'âge des sujets est en moyenne de 28 ans (déviation standart de 5 ans). La population est composée de 10 hommes et 10 femmes.

RESULTATS & DISCUSSION

le,

100

I »

0

-6 0 6 11

dopdodol idedoll/bne (de)

-6 0 4 12

Reopeel 166061/6.ull (0S)

-6 0 6 11

Reooen skreibte (011)

E 0

I

î 40

20

0

I

Id 100

0

-6 0 6 11 Roman signel/Oeu« (011)

Roma sionel/ausi (a)

Figure 34 : Intelligibilité des phonèmes pour différentes compressions à différents rapport
signal sur bruit du signal d'entré sur une population de 20 sujets.

L'exemple figure 33 nous montre que le fait de compresser un signal diminue le rapport signal sur bruit, ce qui est logique si l'on regarde aussi la figure 32. Inversement une extension du signal augmente le rapport signal sur bruit.

Malgré cela les résultats figures 34 et 35 ne montrent pas de différence statistique (par une anova à deux facteurs à mesure répété) de l'intelligibilité en fonction du facteur de compression (ou d'extension). Ce type de compression ne modifie apparemment pas l'intelligibilité dans le bruit pour différent S/B du signal entré.

Comme nous nous y attendions, le traitement du signal utilisé permet de préserver la forme de l'enveloppe ainsi que les structures fines du signal, ce qui se traduit par la stabilité de la compréhension de la parole dans le bruit.

-6 0 6 12

Rommel skpotetwe (OS)

-6 0 6 12

Rommel skpessus os)


·

"

so

4o
20

o

-6 0 6 12

· 4
·
·
·1 sksel/beu11 (OS)

z 100
g6°
60
40
20

1,7 100

160

1 40

I "

--100

6°

4

40

20

0

-6 0 6 12

Ro00so1 es
·olibee (M)

17 100

I

40
20

-5 0 6 12

Roct0o11 t15 oo/W
·1 (dl)

oo

100

4

· "

to

20

-5 0 6 12

1000011 sbeogeewl (te)

Figure 35 : Intelligibilité des mots pour différentes compressions à différents rapport signal
sur bruit du signal d'entré sur une population de 20 sujets.

CONCLUSION

Bien qu'artificiellement le rapport signal sur bruit se modifie lors d'une compression (figure 33, table I), l'intelligibilité reste néanmoins identique. L'utilisation de ce type de traitement semble être intéressant pour les aides auditives par rapport aux compressions utilisées actuellement.

Afin de valider ce type de compression, il semble intéressant de poursuivre ces investigations sur des sujets atteints d'une surdité cochléaire. Plusieurs sous-groupes, en fonction du niveau de surdité, doivent être étudiés (de la surdité moyenne à profonde).

Il semble aussi intéressant d'utiliser ce même traitement sur plusieurs canaux fréquentiels.

CONCLUSION GENERALE

De ce mémoire ressort plusieurs points importants:

- Le signal de parole peut grossièrement se décomposer en deux partie, la structure fine et l'enveloppe temporelle.

- La structure fine d'un signal de parole nécessite une analyse très précise par la cochlée. Les surdités cochléaires viennent donc perturber son traitement.

- L'enveloppe du signal ne semble pas être prétraitée par la cochlée puisqu'elle est perçue de la même manière par une population atteinte d'une surdité cochléaire (stimulation électrique par l'implant cochléaire y compris) que par une population normo-entendante.

- L'enveloppe du signal acoustique est suffisante pour comprendre (avec de l'entraînement) la parole ; l'intelligibilité est sans entraînement supérieur à 90 % pour 4 canaux fréquentiels.

- Un traitement du signal qui sur plusieurs canaux fréquentiels préserve l'enveloppe du signal lors d'une compression serait donc bénéfique aux surdités cochléaires.

- Une compression du signal avec une préservation de l'enveloppe ne détériore pas l'intelligibilité, ceci quelque soit le S/B ; des études complémentaires, notamment chez une population atteint d'une surdité cochléaire, doivent être effectuées afin de valider ces hypothèses.

Les Maîtres de Mémoire : Vu et PERMIS D'IMPRIMER

Marie Bontoux Lyon, le 20 novembre 1998

Pr Christian Berger-Vachon

Le responsable de l'Enseignement Professeur Alain Morgon

BIBLIOGRAPHIE

Bacon SP, Veimeister NF. Temporal modulation transfer functions in nomal-hearing and hearing impaired subjects. Audiology, 1985, 24,117-134

Bregman AS, Levitan R, Liao C. Fusion of auditory components. Effects of frequency of amplitude modulation. Perception and Psychophysics, 1990, 47, 68-73

Burns EM, Viemeister NF. Nonspectral pitch. J Acous Soc Am, 1976, 60, 863-869

Burns EM, Viemeister NF. Played-again SAM : Further observations on the pitch of amplitude-modulated noise. J Acous Soc Am, 1981, 70, 1655-1660

Cazals Y, Pelizonne M, Saudan O, Boex C. Lowpass filtering in amplitude modulation detection associated with vowel and consonant identification in subjects with cochlear implants. J Acoust Soc Am, 1994, 96, 2048-2054

Collins LM, Wakefield GH, Feinman GR. Temporal pattern discrimination and speech recognition under electrical stimulation. J Acous Soc Am, 1994, 96, 2731-2737

Deguine O. Implants cochléaires. Acquisition et controverses. Thèse de médecine, 1990 Demany L, Lacher-Fougère S. Consequences des pathologies cochléaires sur la perception des modulations sonores. Cahier de l'audition, 1997, 10, 3; 15-17

Dorman MF, Soli S, Dankowski K, Smith L, McCandless G, Parkin J. Acoustic cues for consonant identification by patients using Inaired cochlear implant. J Acous Soc Am, 1990, 88, 2074-2079

Drullman R, Festen JM, Houtgast T. Effect of temporal modulation reduction on spectral contrasts in speech. J Acous Soc Am, 1996, 99, 2358-2364

Drullman R, Festen JM, Plomp R. Effect of reducing slow temporal modulations on speech recognition. J Acous Soc Am, 1994, 95, 2670-2680

Drullman R, Festen JM, Plomp R. Effect of temporal envelope smearing on speech recognition. J Acous Soc Am, 1994, 95, 1053-1064

Drullman R. Temporal envelope and fine structure cues for speech intelligibility. J Acous Soc Am, 1995, 97, 585-592

Fletcher HF. Auditory patterns. Review of Modern Physics, 1940, 12, 47-65

Gelis C. Bases techniques et principes d'application de la prothèse auditives. Sauramps medical Eds, 1993.

Hochmair-Desoyer IJ, Hochmair ES, Stiglbrunner HK. Psychoacoustic temporal processing and speech understanding in cochlear implants patients. In RA Schindler & MM Merzenich (Eds), Cochlear implants, New York :Raven Press, 1985, 291-394

Houtsma T, Steeneken HJM. A review of the MTF concept in room acoustics and its use for estimating intelligibility in auditoria. J Acous Soc Am, 1985, 77, 1069-1077

Katz SJ, Berry RC. Speech modulated noise. 81nd Meeting of Acoustical Society of America, 1971.

Kohlrausch A. Comment on 'Temporal modulation transfer functions in patients with cochlear imlants'. J Acous Soc Am, 1993, 93, 1649-1650

Le Poncin-Charanchon D, Monteil JP, Tran-Ban-Huy P. L'audition. Les cahiers Baillère, Paris, 1981

Lafon J.C. Transposition et modulation pour que les sourds entendent. Bull. Audiophonologie, 1996, 12, 3&4

Lorenzi C, Gallégo S, Patterson RD. Discrimination of temporal asymmetry in cochlear implantees. J Acous Soc Am, 1997, 102, 482-485

Lorenzi C, Micheyl C, Berthommier F, Portalier S. Modulation masking in listeners with sensorineural hearing loss. J Speech & Hear Res, 1997, 40, 200-207

Lawson DT, Wilson BS, Finley CC. New processing strategies for multichannel cochlear protheseses. Progress in brain research, 1992.

Moore BJC, Shailer MJ, Schooneveldt GP . Temporal modulation transfer functions for bandlimited noise in subjects with cochlear hearing loss. Brit J Audiol, 1992, 26, 229-237

Morgon A, Aran JM, Collet L, Dauman R, Fraysse B, Freyss G, Pujol R, Sens A, Sterkers O, Tran Ba Huy P, Uziel A. Données actuelles sur la physiologie de l'oreille interne. Armette société française d'ORL et de pathologie cervico-faciale, 1990

Noordhoek IM, Drullman R. Effect of temporal intensity modulations on sentence intelligibility. J Acous Soc Am, 1997, 101, 498-502

Palmer AR. Physiology of the cochlear nerve and cochlear nucleus. Hearing (Ed. MP Haggard & EF Evans), 1987, 838-855

Patterson RD. Auditory filter shapes derived with noise stimuli. J Acous Soc Am, 1976, 59, 640-654

Plomp R. The role of modulation in hearing. In R Klinke & Hartmann (Eds), Hearingphysiologycal bases and psychophysics, 1983, 270-275

Pujol R. Le traitement de du son dans l'oreille interne. Pour la science, 1990, 154, 20-29 Ritsma RJ. Existence region of the tonal residue. J Acous Soc Am, 1962, 34, 1224-1229 Rohen JW, Yokochi C. Anatomie Humaine. Atlas photographique de l'anatomie systématique et topographique. Vigot, 1991

Romand R. Le système auditf central. Ed INSERM/SFA, 1992

Rose JE, Brugge JF, Anderson DJ, Hind JE. Patterns of activity in single auditory nerve of the cochlea. Nature, 1968, 349, 413-414

Rosen S. Temporal information in speech : Acoustic, auditory and linguistic aspects. Proceeding of Royal Society of London series B, 1992, 336, 367-373

Shannon RV, Zeng FG, Kamath V, Wygonski J, Ekelid M. Speech recognition with primarily temporal cues. Science, 1995, 270, 303-304

Shannon RV. Temporal modulation transfer functions in patients with cochlear implants. J Acous Soc Am, 1992, 91, 2156-2164

Summerfield AQ. Speech-processing alternatives for electrical auditory stimulation. In RA Schindler & MM Merzenich (Eds), Cochlear implants, New York :Raven Press, 1985, 195222

Tasell D Van, Solli SD, Kirby VM, Widin GP. Speech waveform envelope cues for consonant recogniton. J Acous Soc Am, 1987, 82, 1152-1161

Tyler RS, Parkinson AJ, Woodworth GG, Lowder MW, Gantz BJ. Performance over time of adult patients using the Inaired or Nucleus cochlear implant. J Acous Soc Am, 1997, 102, 508-522

Viemeister NF. Temporal modulation transfer functions based upon modulation thresholds. J Acous Soc Am, 1979, 66, 1364-1380

Wilson B, Lawson D, Finley C. Speech processors for auditory protheses. IVth quaterly progress repport on NIH project N01 DC 9 2401, 1990, 4-24

Zatorre R. Fonctions cérébrales et traitements auditifs complexe. Revue de Neuropsychologie. 1993, 3, 4, 407-425






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'imagination est plus importante que le savoir"   Albert Einstein