La dépression est l'une des maladies mentales les plus courantes. Jusqu'à 280 millions de personnes dans le monde sont touchées par cette maladie. C'est pourquoi des chercheurs de l'Université de technologie de Kaunas (KTU) ont développé un modèle d'intelligence artificielle (IA) qui aide à identifier la dépression en se basant à la fois sur la parole et sur l'activité neuronale du cerveau. Cette approche multimodale, combinant deux sources de données différentes, permet une analyse plus précise et objective de l'état émotionnel d'une personne, ouvrant ainsi la porte à une nouvelle phase de diagnostic de la dépression.
La dépression est l'un des troubles mentaux les plus courants, avec des conséquences dévastatrices tant pour l'individu que pour la société. Nous développons donc une nouvelle méthode de diagnostic, plus objective, qui pourrait devenir accessible à tous à l'avenir. »
Rytis Maskeliūnas, professeur au KTU et l'un des auteurs de l'invention
Les scientifiques affirment que même si la plupart des recherches diagnostiques sur la dépression s'appuient traditionnellement sur un seul type de données, la nouvelle approche multimodale peut fournir de meilleures informations sur l'état émotionnel d'une personne.
Précision impressionnante grâce aux données sur la voix et l'activité cérébrale
Cette combinaison de données sur la parole et l'activité cérébrale a atteint une précision impressionnante de 97,53 pour cent dans le diagnostic de la dépression, surpassant largement les méthodes alternatives. « C'est parce que la voix ajoute à l'étude des données que nous ne pouvons pas encore extraire du cerveau », explique Maskeliūnas.
Selon Musyyab Yousufi, doctorant au KTU qui a contribué à l'invention, le choix des données a été soigneusement réfléchi : « Bien que l'on pense que les expressions faciales pourraient en révéler davantage sur l'état psychologique d'une personne, il s'agit de données assez facilement falsifiables. Nous avons choisi voix car elle peut révéler subtilement un état émotionnel, le diagnostic affectant le rythme de la parole, l'intonation et l'énergie globale ».
De plus, contrairement à l’activité électrique cérébrale (EEG) ou aux données vocales, le visage peut, dans une certaine mesure, identifier directement l’état de gravité d’une personne. « Mais nous ne pouvons pas violer la vie privée des patients, et de plus, la collecte et la combinaison de données provenant de plusieurs sources sont plus prometteuses pour une utilisation ultérieure », déclare le professeur de la Faculté d'informatique (IF) de la KTU.
Maskeliūnas souligne que l'ensemble de données EEG utilisé a été obtenu à partir de l'ensemble de données ouvertes multimodales pour l'analyse des troubles mentaux (MODMA), car le groupe de recherche KTU représente l'informatique et non le domaine des sciences médicales.
Les données MODMA EEG ont été collectées et enregistrées pendant cinq minutes alors que les participants étaient éveillés, au repos et les yeux fermés. Dans la partie audio de l'expérience, les patients ont participé à une séance de questions-réponses et à plusieurs activités axées sur la lecture et la description d'images pour capturer leur langage naturel et leur état cognitif.
L’IA devra apprendre à justifier le diagnostic
Les signaux EEG et audio collectés ont été transformés en spectrogrammes, permettant de visualiser les données. Des filtres de bruit spéciaux et des méthodes de prétraitement ont été appliqués pour rendre les données exemptes de bruit et comparables, et un modèle d'apprentissage en profondeur DenseNet-121 modifié a été utilisé pour identifier les signes de dépression dans les images. Chaque signal réfléchi par l'image change avec le temps. L'EEG a montré des formes d'onde de l'activité cérébrale et le son a montré des distributions de fréquence et d'intensité.
Le modèle comprenait une couche de classification personnalisée formée pour diviser les données en classes de personnes en bonne santé ou déprimées. La classification réussie a été évaluée, puis l'exactitude de la candidature a été évaluée.
À l’avenir, ce modèle d’IA pourrait accélérer le diagnostic de dépression, voire le rendre distant, et réduire le risque d’évaluations subjectives. Cela nécessite des essais cliniques supplémentaires et des améliorations du programme. Cependant, Maskeliūnas ajoute que ce dernier aspect de la recherche pourrait soulever certains défis.
« Le principal problème de ces études est le manque de données, car les gens ont tendance à rester confidentiels sur leurs problèmes de santé mentale », dit-il.
Un autre aspect important mentionné par le professeur du Département d'ingénierie multimédia de la KTU est que l'algorithme doit être amélioré de manière à ce qu'il soit non seulement précis, mais qu'il fournisse également des informations au professionnel médical sur ce qui a conduit à ce résultat de diagnostic. « L'algorithme doit encore apprendre à expliquer le diagnostic de manière compréhensible », explique Maskeliūnas.
Selon un professeur du KTU, en raison de la demande croissante de solutions d'IA qui affectent directement les personnes dans des domaines tels que la santé, la finance et le système juridique, des exigences similaires deviennent courantes.
C'est pourquoi l'intelligence artificielle explicable (XAI), qui vise à expliquer à l'utilisateur pourquoi le modèle prend certaines décisions et à accroître sa confiance dans l'IA, prend désormais de l'ampleur.