Dans cette interview,Ma Cliniqueparle à Samuel Norman-Haignere de sa dernière recherche qui a découvert une sous-population neuronale qui répond spécifiquement au chant.
Sommaire
Pouvez-vous vous présenter, nous parler de votre parcours en neurosciences et de ce qui a inspiré vos dernières recherches sur la représentation neuronale de la musique ?
Je suis professeur adjoint à l’Université de Rochester. Je démarre un laboratoire pour étudier les bases neurales et computationnelles de la perception auditive. Nous développons des méthodes informatiques pour révéler la structure sous-jacente des réponses neuronales aux sons naturels comme la parole et la musique, puis développons des modèles pour essayer de prédire ces réponses et les relier à la perception humaine.
Cette étude récente faisait suite à une étude antérieure où nous mesurions les réponses aux sons naturels (parole, musique, cris d’animaux, sons mécaniques, etc.) avec l’IRMf. Dans cette étude, nous avons déduit qu’il existait des populations neuronales distinctes dans le cortex auditif humain d’ordre supérieur qui réagissent sélectivement à la parole et à la musique, mais nous n’avons pas pu voir comment les représentations de la parole et de la musique étaient organisées au sein de ces populations neuronales.
Pour répondre à cette question, nous avons réalisé la même expérience mais à la place mesuré les réponses intracrâniennes de patients avec des électrodes implantées dans leur cerveau pour localiser les foyers de crise d’épilepsie. Ces types d’enregistrements offrent une précision spatio-temporelle beaucoup plus élevée, ce qui était important pour découvrir la sélectivité des chansons.
Comment avez-vous étudié la représentation neuronale de la musique et des sons naturels ?
Nous avons mesuré les réponses neuronales aux sons naturels en utilisant à la fois des enregistrements intracrâniens de patients épileptiques ainsi que l’imagerie par résonance magnétique fonctionnelle. Nous avons ensuite utilisé un algorithme statistique pour déduire un petit nombre de modèles de réponse canoniques qui expliquaient collectivement les données intracrâniennes, et nous avons cartographié leur distribution spatiale avec l’IRMf.
Crédit d’image : Une population neuronale sélective pour le chant dans le cortex auditif humain
Votre enquête a trouvé une nouvelle découverte clé. Quelle était cette découverte et comment change-t-elle notre façon de penser l’organisation du complexe auditif ?
Notre nouvelle découverte clé est qu’il existe une population neuronale distincte qui répond sélectivement au chant. Cela suggère que les représentations de la musique sont fractionnées en sous-populations qui répondent sélectivement à des types particuliers de musique.
Comment la nouvelle méthode statistique développée dans cette étude peut-elle permettre une investigation plus poussée sur le terrain ?
La méthode statistique est largement applicable à la compréhension de l’organisation cérébrale à l’aide de réponses à des stimuli naturels complexes, comme la parole et la musique.
La méthode fournit un moyen de déduire un petit nombre de sous-populations neuronales qui expliquent collectivement un grand ensemble de données de réponses aux stimuli naturels. Cela permet de déduire de nouveaux types de sélectivité que vous ne pensez peut-être pas rechercher (la sélectivité des chansons en est un excellent exemple), ainsi que de démêler des populations neuronales qui se chevauchent spatialement ou temporellement.
L’imagerie par résonance magnétique fonctionnelle ou IRM fonctionnelle (IRMf) a été utilisée dans des études antérieures pour étudier la composante sélective de la musique. Quels avantages l’ECoG, ou l’électrocorticographie, a-t-elle fournis par rapport à l’IRMf qui ont permis votre nouvelle découverte ?
L’ECoG offre une précision spatio-temporelle beaucoup plus élevée, ce qui, nous l’avons montré, était important pour détecter la sélectivité des chansons.
Alors que la musicothérapie gagne en popularité, en particulier pour les patients atteints de démence, comment vos découvertes peuvent-elles aider à comprendre le lien entre la musique, les souvenirs et les émotions ?
La capacité à localiser des populations neuronales qui répondent spécifiquement à la musique et au chant pourrait permettre de mieux comprendre comment elles interagissent avec d’autres régions impliquées dans la perception de la mémoire et de l’émotion.
Crédit d’image : Kzenon/Shutterstock.com
Que nous disent vos découvertes plus largement sur l’universalité de la chanson et comment une telle composante a pu évoluer ?
La sélectivité des chansons pourrait refléter un rôle privilégié du chant dans l’évolution de la musique. Cela pourrait également refléter le fait que le chant est omniprésent et saillant dans l’environnement. Nous ne savons vraiment pas à ce stade.
Quelle est la prochaine étape pour vous et vos recherches ?
Notre laboratoire a une variété d’intérêts méthodologiques et scientifiques, tous axés sur la compréhension des calculs neuronaux qui sous-tendent l’audition. Nous souhaitons essayer de comprendre quels aspects du chant sont codés dans la population neuronale sélective de la chanson.
Nous développons de meilleures méthodes pour révéler la structure sous-jacente à partir d’ensembles de données complexes, ainsi que des modèles informatiques capables de mieux prédire les réponses que nous mesurons dans le cortex auditif d’ordre supérieur. Notre laboratoire a également un intérêt significatif à comprendre comment le cortex auditif analyse les sons à différentes échelles de temps.
Où les lecteurs peuvent-ils trouver plus d’informations ?
Les gens peuvent consulter le site Web de mon laboratoire : https://www.urmc.rochester.edu/labs/computational-neuroscience-audition.aspx
À propos de Samuel Norman-Haignere
Le Dr Norman-Haignere est un neuroscientifique cognitivo-informatique qui étudie comment le cerveau humain perçoit et comprend les sons naturels comme la parole et la musique. Il a terminé des études de premier cycle à Yale et un doctorat au MIT (conseillers : Josh McDermott et Nancy Kanwisher). Il a ensuite effectué deux post-doctorats à l’École Normale Supérieure (directeur : Shihab Shamma) et à l’Université de Columbia (directeur : Nima Mesgarani), avant de rejoindre la faculté de l’Université de Rochester.
Ses recherches développent des méthodes informatiques et expérimentales pour comprendre la représentation de stimuli complexes et naturels dans le cerveau humain et appliquent ces méthodes pour comprendre les mécanismes neuronaux et informatiques qui sous-tendent l’audition humaine.