>>> si vous ne savez pas comment explorer le blog, essayez cet index

22.10.14

Les voies auditives




Aujourd’hui, Maryse et Pierre vont nous parler du son, de la musique, de cerveau auditif, de choses qui en général dépassent totalement les neurologues, que ce soit ceux de l’école de Maryse, parce que la musique ça donne des maux de tête, ou ceux de l’école de Pierre, parce qu’il n’y a rien à thrombolyser. Pour cette discussion à bâtons rompus (à force de se taper dessus avec), Maryse et Pierre vont partir d’un livre intitulé modestement « Neruoscience », rédigé par Purves and co, publié chez sinauer, et plus particulièrement du chapitre 13, page 313-342, intitulé « The Auditory System ».

Comme d’hab, la lumière baisse doucement, le brouhaha de la salle s’étiole sur une dernière quinte de toux (je pense qu’il existe une loi interdisant la tenue d’un spectacle sans la présence d’un bronchitique chronique dans la salle), le rideau se lève sur une scène dépouillée, un projecteur froid illumine Maryse dans sa tenue blanche excessivement amidonnée tandis qu’une lumière orangée indirecte éclaire Pierre assis en tailleur, un sandwich du relais H pouvant contenir des traces de pain à la main.



- Bonjour Pierre.
- Salut Maryse.
- Aujourd’hui Pierre nous allons discuter des voies de l’audition.
- Waouh su.per…
- Pourquoi cette absence d’enthousiasme ?
- Parce que c’est un sujet pour les ORL, les audioprothésistes, au pire pour les orthophonistes, mais franchement, nous les neurologues, que voulez-vous qu’on en fasse ?
- Et la culture générale ?
- Oui ben dans ce cas parlons de l’origine de la couleur orange du gouda !
- …. j’enchaine tout de suite, le pire étant que je vous crois sérieux. Les voies auditives sont d’une complexité insoupçonnée, et d’une certaine façon, plus compliquées, plus évoluées et plus intégrées que les voies visuelles. La comparaison avec les voies visuelle n’est pas anodine, car ces deux systèmes, ont une organisation parallèle qui ne ressemble à aucune des autres voies afférentes. De plus, l’évolution nous ayant amené à les privilégier aux dépend de l’odorat et du goût, leurs projections frontales et sous corticales sont elles aussi uniques. Ce sont les seuls sens qui peuvent aussi massivement et brutalement modifier nos émotions et nos comportements et…
- Et je vous arrête tout de suite Maryse, parce que là vous parlez pour vous !
- Hein ?
- Oui, vous dites que ces systèmes influent sur nos émotions et nos comportements sans les distinguer. Personnellement, un musique peut me faire rire ou pleurer, voir fuir si elle évoque un danger, alors qu’un tableau, même êtres beau ou très effrayant ne me fera jamais cet effet !
- Je vois. Alors comme d’habitude vous parlez sans réfléchir en comparant des choses non comparables. La musique et une suite de sons. Un tableau est une image. Si vous voulez comparer des choses comparables, comparez une musique et un film ou un son et une image. L’un est dynamique l’autre statique. Un film peut vous émouvoir autant qu’une musique. Une image peut vous émouvoir autant qu’un son ou un accord. Lorsque sons ou images s’enchaînent pour former une musique ou un film, vous accumulez des micros émotions qui vont activer des séquences mnésiques de plus en plus longues, pouvant aboutir à une modification de votre humeur ou de vos réactions.
- Ah ?
- Oui !
- Ok, je vous laisse continuer.
- Passons rapidement sur ce qui n’est pas neurologique, c’est-à-dire ce qui se passe avant le nerf auditif : les sons, sont des vibrations complexes en intensités, fréquences, et autres paramètres physiques comme l’enveloppe fréquentielle ou la direction du son. Tout ceci arrive vers la cochlée, soit par les vibrations perçues par le tympan, soit par celles transmises par la boite crânienne et le reste de l’organisme. Tout cela finit dans la cochlée, où des cellules ciliées réagissent à des fréquences spécifiques, en fonction de leur localisation anatomique : les cellules sensibles aux basses fréquences sont situées dans la pointe de la cochlée, celles sensibles aux hautes fréquences dans la base de la cochlée. Chacune de ces cellules sensorielles est en contact, via une synapse, avec une fibre nerveuse auditive. Ces fibres se rejoignent dans le ganglion spiralé duquel part le nerf auditif.
- Y a pas à dire Maryse, vous avez capté toute mon attention, je visualise très bien l’utilité de ces informations !
- Et bien vous devriez ! Rien qu’à ce niveau de l’encodage d’un phénomène physique (le son) en phénomène électrique (le potentiel d’action dans la fibre nerveuse), il se passe des choses ultra complexes. Par exemple, aucune cellule ciliée ne peut individuellement exciter la fibre nerveuse qui lui est accolée, plus de 3000 fois par seconde, soit 3 Hz.
- Dingue ! mais ça ne me parle pas.
- Le spectre audible s’étend de 20 Hz à 20000Hz chez les enfants, 15000Hz chez l’adulte.
- Hmmm, donc vous voulez dire qu’on peut entendre des sons que nos oreilles ne peuvent pas percevoir ?
- Pas du tout, je veux dire que grâce à la tonotopie, nous pouvons percevoir des sons dont la fréquence est au-delà de ce que les lois bioélectriques permettent. C’est une premiere forme d’encodage qui peut accroitre nos capacités au delà de nos limites biologiques. Et les humains dans ce domaine sont ridicules, les chauves-souris peuvent percevoir des sons dont la fréquence monte à 200000 Hz.
- Je comprends mieux le style vestimentaire du public d’une vieillie chanteuse autrefois teintée en orange et portant des cuissardes.
- Vos références ont bien cent ans d’âge, passons. Il existe un autre encodage extrêmement fin : la localisation spatiale ! Vous êtes-vous demandé comment un son unique pouvait être précisément localisé dans l’espace par vos oreilles, alors qu’elles sont fixes par rapport au crâne et n’ont pas une forme de parabole comme la rétine de vos yeux ?
- Non…
- Au moins c’est honnête ! Les cellules ciliées réagissent au son, mais pour être précise, physiquement, elles réagissent à la phase positive de l’onde sonore. Les deux oreilles percevant cette onde avec un décalage temporel proportionnel à leur éloignement relatif par rapport à la source, il est possible pour les centres supérieurs de mesurer cette différence de phase et d’encoder une direction. En gros, là où sony and co ont besoin du dolby surround 8.326565 pour vous donner une impression de son en 3D, mère nature se contente de deux écouteurs stéréo pour faire mieux.
- Maryse, je vais continuer à être honnête avec vous, je comprends, ou du moins je crois comprendre ce que vous voulez dire, mais je… ne comprends pas.
- C’est normal. Pour une très belle illustration, allez (et écoutez) ce site de radio France : http://nouvoson.radiofrance.fr/le-son-en-3d-definitions
- J’aime bien !
- Ah vous voyez, vous pouvez être positif parfois ! Et ça tombe bien parce que je vais vous embrouiller ! Je vais vous embrouiller car pour vous expliquer pourquoi il était important de comprendre comment les cellules ciliées participaient à l’encodage spatial, j’ai été obligée de passer directement des cellules aux centres supérieurs, sans vous dire comment le nerf auditif allait de l’un à l’autre, ni ce que voulait dire le terme « centres supérieurs ».
- Ah oui dites donc, quelle coquine vous faites, et puis comment dire, pfiouuu, ça m’avait manqué de pas le savoir !
- C’est sympa d’insister, alors je vais développer ! A partir de chaque ganglion spiralé, part un nerf, le nerf auditif (ou cochléaire), qui, accolé au nerf vestibulaire, forme le nerf cochléo-vestibulaire, ou pour le dire plus simplement, le VIII. A l’intérieur du nerf auditif, la tonotopie est respectée. Ce nerf passe par la partie basse du tronc cérébral et fait synapse, de façon homolatérale dans le noyau cochléaire. Cette synapse est bordelique, mais comme c’est important, il faut en parler. Juste avant de faire synapse, chaque fibre auditive du nerf auditif, se divise en trois, pour faire synapse dans trois parties différentes du noyau cochléaire (en arrière, au milieu et en avant, ou, pour parle anatomiquement, dorsal, posteroventral et anteroventral). Dans chacun de ces sous noyaux, la tonotopie est respectée, c’est-à-dire que les fibres reliées aux cellules ciliées sensibles aux fréquences élevées sont séparées de celles relies aux cellules ciliées sensible aux bases fréquences.
- Maryse ?
- Oui ?
- Vous vous rendez bien compte qu’en dehors des anatomistes, tout le monde s’en tape de l’organisation topographique d’un noyau obscur paumé au fin fond d’une partie elle-même insignifiante du tronc cérébral ?
- Oui !
- Ahhhh !
- Mais c’est important pour la suite !
- 6 – 21 – 3 – 11 émes lettres de l’alphabet !
- Je reprends. Chacun de ces sous noyaux envoie des fibres (2 eme neurone) vers des centres supérieurs. Le noyau cochléaire postérieur se projette de façon bilatérale sur le colliculus inférieur (nous y reviendrons), les deux autres projettent de façon bilatérale sur les noyaux olivaire.
- Pitié j’en peux plus !
- Ok ! je m’arrête là pour l’instant avec les noms barbares pour vous explique pourquoi c’est important. Bilatéral est important parce que ça vous explique pourquoi il ne peut pas y’avoir de surdité unilatérale liée à une lésion du système nerveux central : la division et la décussation étant quasi immédiate après l’entrée du nerf auditif dans le tronc, les deux hémisphères cérébraux perçoivent l’ensemble des données auditives. Donc une surdité unilatérale et toujours d’origine extra neurologique, ou au pire, par atteinte du nerf périphérique (auditif) mais pas par atteinte du tronc. Donc pas d‘AVC qui rend sourd d’une oreille, donc pas de thrombolyse !
- Ah ben voilà, quand vous voulez être claire vous pouvez, pas la peine de nous énerver avec vos noms de noyaux tordus !
- Oui mais je suis bien obligée, parce que c’est maintenant, grâce au noyau olivaire, que je vais pouvoir reprendre l’explication sur la localisation spatiale des sons !
- …. [Pierre émet un son inintelligible, qui semble être formé par la contraction grammaticalement incorrecte du mot «fac et du mot œuf].
- Quand on demande à des physiciens quelle serait la capacité de discrimination du système auditif entre deux phases positives d’une onde sonore, ceux-ci répondent, que vu la distance moyenne entre les deux oreilles d’un humain, et vu la vitesse du son dans l’air, nous ne devrions pas être capable de déceler des différences inferieures à 700 millisecondes. Ce qui, en termes de localisation, donne une précision spatiale de 70°. Sans même que je ne vous donne le vrai chiffre, vous savez tous que c’est faux. En fait, nous sommes capables de percevoir des différences de 10 ms, soit une précision spatiale de 1°.
- Mère nature est vachement forte !
- Et oui Pierre, et c’est pour vous l’expliquer que j’ai besoins de vous parler du noyau olivaire. Pour être précise, du noyau olivaire superiomédial (MSO). Dans ce noyau il existe des neurones très très particuliers. Ils n’ont que deux dendrites (portes d’entrée). Par l’une arrive les informations de la cochlée gauche, par l’autre celle de la cochlée droite. Chacun de ces neurones ne réagit que si les informations concernent la même fréquence ET si l’information arrive en même temps. En français, cela veut dire qu’un neurone programmé pour « entendre » la fréquence n ne réagira que si, et seulement si, ses deux dendrites, reliées aux cellules ciliées qui réagissent à la fréquence n, s’activent en même temps. Chacun de ces neurones est plus ou moins latéralisée au sein du MSO. Un neurone disons plutôt à droite, sera donc plus loin de la cochlée gauche et plus près de la cochlée droite. Un son qui viendrait de la gauche, serait perçu par la cochlée gauche avant la cochlée droite. La vitesse du signal nerveux étant constante, le potentiel d’action (PA) mettra plus de temps pour arriver de la cochlée droite au MSO que celui généré dans la cochlée gauche. Tandis qu’un neurone médian, percevra les deux PA à deux moments différents (d’abord le gauche puis le droit) notre neurone qui est plutôt à droite percevra les deux PA en même temps. Ceci va le faire régir lui, et rien que lui. Il fonctionne donc comme un détecteur de coïncidences. Et ça, ça permet d’atteindre cette précision que la physique simple n’explique pas.
- …
- Pierre ?
- …
- PIERRE !
- Ne criez pas, je vous entends très bien Maryse, c’est juste que ça me rend songeur. Si je vous comprends bien, une lésion du MSO, peu faire perdre spécifiquement la capacité à localiser un son, sans pour autant faire perdre l’audition ?
- Oui !
- Mais ça doit être casse pied ça !
- Ça l’est ! et vous le savez d’autant plus que vous le vivez tous les étés ?
- Hein ?
- Avez-vous remarqué, qu’à moins qu’un moustique ne soit collé à votre oreille, vous avez du mal à le situer ? Alors qu’avec une mouche vous êtes beaucoup plus performant !
- Mais oui ! Comment est-ce possible ? Les moustiques ont un brouilleur radar contre nos neurones de localisation du MSO ?
- Presque !
- En fait, nous somme insuffisamment pourvus ! Ce mécanisme de localisation n’est efficace que pour les fréquences inferieures à 3000 HZ. Pour les fréquences supérieures, ce mécanisme est pris en défaut.
- Ah !
- Voui !
- Ben on fait comment alors ?
- On se sert d’un autre noyau, l’olivaire latéral supérieur (LSO), associé au noyau médial du corps trapézoïde (MNTB) !
- NON MAIS VOUS VOULEZ MA MORT ESPECE DE PERVERSE AU SOURIRE CARNASSIER !
- Calmez-vous Pierre, c’est beaucoup plus facile car beaucoup moins précis et moins évolué !
- JeVaisBienToutVaBienEtDansVotreFigureJeVaisMettreMonPoing
- Hmmm, pendant que Pierre, du fait de ses limitations en est réduit à me menacer (rappelez-vous, la violence est le dernier refuge de l’incompétence), je vous propose de continuer. Quand un son arrive dans le LSO, quel que soit sa fréquence, il stimule le LSO homolatéral, et via le MNTB, inhibe le controlatéral. Quand le même son arrive de l’autre coté (un peu plus tard, et un peu moin fort, donc un peu moins intense, car la distance aérienne est plus importante), il fait pareil. Sauf que, étant moins intense, il stimule moins fort le LSO qui lui est homolatéral et inhibe moins le LSO controlatéral. En pratique, un son qui vient de gauche, va d’abord stimuler le LSO gauche et inhiber le droit, puis arriver dans l’autre oreille, puis stimuler, mais moins fort le LSO droit et inhiber, toujours moins fort le LSO gauche. Bilan des stimulations/inhibitions, le LSO le plus proche du son sera fortement stimulé et peu inhibé et le LSO le plus éloigné du son sera peu stimulé et fortement inhibé. Cela vous donne une orientation gauche droite approximative, modulée selon l’intensité du son, mais qui n’a pas la précision du système de détection du MSO.
- Super ! De toute façon je ne vous écoute plus !
- Ah mais vous devriez ! Car ça permet d’être pénible si vous avez un bon avocat !
- Quoi ?
- Et oui ! si vous êtes un jour percuté par un camion qui fait marche arrière en émettant le bruit strident qui est supposé vous mettre en alerte, vous pourriez demander à votre avocat de vérifier à quelle fréquence ce son est émis. S’il est supérieur à 3 kHz, vous pourriez plaider de bonne foi l’avoir entendu mais avoir été incapable de le localiser avec précision (surtout s’il était pile dans votre dos, c’est-à-dire équidistant de vos deux oreilles).
- Mais vous êtes une peste !
- Une neurologue engagée suffira !

Après l’entracte, nos deux acteurs reviennent sur scène. Si le premier acte s’était focalisé sur les modalités d’identification et d’analyse spatiale des sons par le tronc, le deuxième acte devrait se focaliser sur des structures plus hautes. Ceux qui parmi vous aiment le théâtre classique vont par conséquent être déçus, il n’y a ni unité de lieu, ni unité de temps, mais que voulez-vous, quand mère nature a créé l’anatomie humaine, elle était sous LSD. 
Le brouhaha du public diminue à nouveau, le bronchitique chronique du premier rang,en attente de greffe, semble avoir fini de s’entrainer pour sa prochaine EFR, les lumières se tamisent et le spectacle peut reprendre.

- Maryse, que ce soit clair entre nous, si vous me refaites de l’étalage de science avec des noms de noyaux impossibles, que d’ailleurs je me suis empressé d’oublier, je quitte cette scène sur le champ.
- Pierre, Pierre, Pierre… comment vous le dire, cher Pierre, sans vos questions mon propos serait terne comme le vif-argent, sans vos remarques pertinentes, mon discours serait accidenté comme une mer d’huile, en gros, et pour faire simple si vous ne voulez pas de noms compliqués, je vous suggère de vous casser.
- …[bouderie], rien que pour vous troubler je vais donc rester et subir votre logorrhée !
- Très bien, alors attaquons. On a vu dans le chapitre précèdent, que le nerf auditif se divisait en trois voies bilatérales. Nous avons également bien discuté de la première voie, qui se projetait sur les noyaux olivaires et qui permettait la localisation des sons. On va voir maintenant ce que font les deux autres voies.
- Je frémis d’impatience, quel nom a inventé la science ?
- La deuxième se projette au niveau de la partie haute du tronc, sur un petit noyau appelé le noyau du lemnisque latéral. Et cette voie, pour une fois, on va s’empresser de l’oublier.
- Et dites-moi chère amie, pourquoi ce mépris ?
- Pierre si vous n’arrêtez pas vos rimes stupide, croyez moi je vous trucide.
- Rabat-joie ! Bon qu’est ce qui ne va pas avec cette voie ? et je ne fais pas exprès.
- Cette voie a un rôle inconnu ! Je m’explique : on sait d’où elle part (le noyau cochléaire), on sait où elle arrive (le lemnisque latéral), on sait ce qui l’excite (les sons qui ne sont entendus que par une seule oreille) mais on ignore à quoi cela peut servir. Certaines hypothèses non prouvées, ni infirmées d’ailleurs, disent que du fait de la proximité de ce noyau avec les voies lemniscales (de la sensibilité), cette voie pourrait participer à un réflexe de défense non spécifique. L’exemple serait celui d’un insecte qui entre dans une oreille (et qui par conséquent n’est pas entendu par l’autre), et qui provoque immédiatement un réflexe moteur de défense. Mais je me répète, rien n’est prouvé et peut être que ce noyau ne sert à rien d’autre que trouver joli le bruit de la mer dans un coquillage.
- Ok, c’était super intéressant, si tout le reste de votre présentation et de ce niveau d’intérêt, je vais prendre du MODIODAL pour rester éveillé… et je n’ai une nouvelle fois pas fais exprès de faire rimer !
- Je ne vous écoute de toute façon plus Pierre. On va tout de suite passer à la suite : la troisième voie. Elle n’est pas seule cette troisième voie. En fait les deux précédentes, après avoir baguenaudé en faisant relais dans leur noyau respectif, envoient également des projections, qui avec celles issues directement du noyau cochléaire, finissent ensembles sur le collicule inférieur…
- Jamais entendu parler, nous n’avons pas eu le plaisir d’être présentés.
- … qui est un noyau pédonculaire assez gros et dont le rôle est aussi complexe qu’archaïque. Accrochez-vous, c’est fascinant et simple, essentiellement parce qu’on ignore les processus qui se déroulent dans ce noyau. On ne peut parler que des résultats et ils ont étonnants. On a vu que dans les noyaux inferieurs, l’analyse de la différence de phases d’onde permettait de localiser la provenance d’un son, avec une précision de 1°. Mais on n’a pas dit dans quel plan. En fait il s’agit du plan horizontal, c’est-à-dire, celui qui est approximativement parallèle au sol. Dans la vraie vie, vous pouvez cependant non seulement dire d’où vient un son dans ce plan, mais également dire quelle est son élévation. Vous pouvez, pour deux sons venant de quelque part à 35° à gauche devant vous, dire que l’un vient du haut à 45° et l’autre du bas à 30°. Cette élévation, ou azimut (de l’espagnol ancien acimut issu de l’arabe as-sumut signifiant les chemins – merci antidote), est déterminée dans le collicule inferieur. Comment ? mystère.

- C’est dingue Maryse, c’est totalement dingue ! Une info aussi inutile c’est bluffant !
- Le collicule a une autre fonction dont le mécanisme est inconnu, et qui elle va vous plaire !
- Il vous dit de vous barrer immédiatement en entendant la voix de belle maman ?
- Vous le saviez ?
- Non, c’est pas vrai ? J’ai dit ça au pif comme ça sans réfléchir !
- Et bien vous devriez le faire plus souvent parce que c’est exactement ça !
- Quoi, c’est un centre spéciale contre les belles mères ?
- C’est un centre de reconnaissance spécifique des sons complexes d’origine biologique ! Il ne régit qu’aux sons complexes, constitués de plusieurs fréquences, modulées dans le temps, et de durée spécifique. Un exemple est un cri d’animal. Un animal pousse en général un seul type de cri (le meuglement de la vache, le coucou du coucou, le non du garde barrière hospitalier etc…) et c’est ce cri que ce centre reconnaît. Dans la nature, il est très développé chez les proies et les prédateurs…
- Tous les animaux donc
- Je vous l’accorde, il est très développé chez les animaux. Chez les proies il permet de décamper des que le cri d’un prédateur est perçu, et ce avant même que l’information ne soit analysée par le cortex. Et chez les prédateurs, il permet de courir après une proie, avant même que l’animal ne réfléchisse à sa faim.
- Et chez l’humain ?
- On n’en sait rien. Mais il joue sans doute un rôle qui explique que les parents de jeunes enfants se réveillent spécifiquement lorsque leur enfant pleure et restent insensible aux cris des autres, ou encore, que, les cris de douleurs d’un enfant provoquent un réflexe d’intervention plus instinctif que les cris de douleurs d’un adulte. Ceci expliquerait également pourquoi dans certains AVC du tronc, des patients n’ont plus de réactions émotionnelles face à des cris de détresse, alors qu’ils sont capables de décrire précisément le son et d’en expliquer la nature.

Si vous voulez en savoir plus, cet article fait partie de la collection suivante :