En tant qu’êtres humains, nous avons chacun des milliards de cellules. Et chaque cellule a un noyau avec des informations génétiques individuelles – ADN – qui peuvent muter pour créer une anomalie. Si un humain naît avec une abondance d’anomalies dans les cellules, ou si des mutations se développent au fil du temps, la maladie s’ensuit. Pour rendre cela encore plus compliqué, les cellules sont souvent un mélange d’ADN anormal et normal – une mosaïque, pour ainsi dire, et comme la forme d’art, ce montage complexe est difficile à comprendre. Cependant, une équipe de recherche dirigée par Joseph Gleeson, MD, professeur Rady de neurosciences à l’UC San Diego School of Medicine et directeur de la recherche en neurosciences au Rady Children’s Institute for Genomic Medicine, a utilisé le Triton Shared Computing Cluster (TSCC) à San Diego Supercomputer Center (SDSC) de l’UC San Diego pour le traitement des données et la formation de modèles afin de dévoiler de nouvelles méthodes de reconnaissance de la mosaïque d’ADN.
Gleeson et son équipe ont récemment découvert de nouveaux gènes et voies dans la malformation du développement cortical, un éventail de troubles qui causent jusqu’à 40 % des épilepsies focales résistantes aux médicaments. Leur recherche montre comment les modèles générés par ordinateur peuvent efficacement imiter le travail de reconnaissance humaine de manière beaucoup plus efficace et a été publiée cette semaine dans Nature Genetics. Une étude connexe a été publiée plus tôt ce mois-ci dans Nature Biotechnology.
Nous avons commencé par une allocation d’essai sur le supercalculateur Comet de SDSC il y a de nombreuses années et nous faisons partie de la communauté TSCC depuis près d’une décennie. TSCC nous permet de tracer des modèles générés par un programme de reconnaissance informatique appelé DeepMosaic et ces simulations nous ont permis de réaliser qu’une fois que nous avons formé le programme de superordinateur pour identifier les zones anormales de cellules, nous avons pu examiner rapidement des milliers de variantes de mosaïque de chaque génome humain – cela ne serait pas possible si c’était fait avec l’œil humain. »
Xiaoxu Yang, chercheur postdoctoral au laboratoire du Dr Gleeson sur les maladies cérébrales pédiatriques
Ce type de connaissances générées par ordinateur est connu sous le nom d’apprentissage profond basé sur un réseau neuronal convolutif et existe depuis les années 1970. À l’époque, des réseaux de neurones étaient déjà en cours de construction pour imiter le traitement visuel humain. Il n’a fallu que quelques décennies aux chercheurs pour développer des systèmes précis et efficaces pour ce type de modélisation.
« L’objectif de l’apprentissage automatique et de l’apprentissage en profondeur est souvent de former les ordinateurs à des tâches de prédiction ou de classification sur des données étiquetées. Lorsque les modèles formés se sont avérés précis et efficaces, les chercheurs utiliseraient les informations apprises – plutôt que des annotations manuelles pour traiter de grandes quantités d’informations », a expliqué Xin Xu, un ancien assistant de recherche de premier cycle dans le laboratoire de Gleeson et maintenant un scientifique des données chez Novartis. « Nous avons parcouru un long chemin au cours des 40 dernières années dans le développement d’algorithmes d’apprentissage automatique et d’apprentissage en profondeur, mais nous utilisons toujours ce même concept qui reproduit la capacité de l’homme à traiter les données. »
Xu fait référence aux connaissances nécessaires pour mieux comprendre les maladies causées lorsque des mosaïques anormales dépassent les cellules normales. Yang et Xu travaillent dans un laboratoire qui vise à faire exactement cela – mieux comprendre ces mosaïques qui conduisent à des maladies – telles que l’épilepsie, les troubles cérébraux congénitaux et plus encore.
« Les approches d’apprentissage en profondeur sont beaucoup plus efficaces et leur capacité à détecter les structures et les connexions cachées dans les données dépasse parfois même la capacité humaine », a déclaré Xu. « Nous pouvons ainsi traiter les données beaucoup plus rapidement, ce qui nous conduit plus rapidement aux connaissances nécessaires. »