L’utilisation de l’apprentissage automatique pour effectuer des comptages de cellules sanguines pour le diagnostic de la maladie au lieu de machines d’analyse cellulaire coûteuses et souvent moins précises a néanmoins été très laborieuse car elle nécessite une énorme quantité de travail d’annotation manuelle par les humains dans la formation de l’apprentissage automatique. maquette. Cependant, des chercheurs de l’université de Benihang ont mis au point une nouvelle méthode de formation qui automatise une grande partie de cette activité.
Leur nouveau programme de formation est décrit dans un article publié dans le journal of Cyborg et systèmes bioniques le 9 avril.
Le nombre et le type de cellules dans le sang jouent souvent un rôle crucial dans le diagnostic de la maladie, mais les techniques d’analyse cellulaire couramment utilisées pour effectuer un tel comptage des cellules sanguines-; impliquant la détection et la mesure des caractéristiques physiques et chimiques des cellules en suspension dans un fluide ; sont coûteux et nécessitent des préparations complexes. Pire encore, la précision des analyseurs de cellules n’est que d’environ 90 % en raison de diverses influences telles que la température, le pH, la tension et le champ magnétique qui peuvent perturber l’équipement.
Afin d’améliorer la précision, de réduire la complexité et de réduire les coûts, de nombreuses recherches sur les alternatives se sont récemment concentrées sur l’utilisation de programmes informatiques pour effectuer une « segmentation » sur des photographies de sang prises par une caméra haute définition connectée à un microscope. La segmentation implique des algorithmes qui effectuent un étiquetage pixel par pixel de ce qui apparaît sur une photo, dans ce cas, quelles parties de l’image sont des cellules et lesquelles ne le sont pas ; essentiellement, compter le nombre de cellules dans une image.
Pour les images dans lesquelles un seul type de cellule apparaît, ces méthodes atteignent un niveau de précision décent, mais elles fonctionnent mal lorsqu’elles confrontent des images avec plusieurs types de cellules. Ainsi, ces dernières années, pour tenter de résoudre le problème, les chercheurs se sont tournés vers les réseaux de neurones convolutionnels (CNN) – ; un type d’apprentissage automatique qui reflète la structure de connexion du cortex visuel humain.
Pour que le CNN accomplisse cette tâche, il doit d’abord être « formé » pour comprendre ce qui est et n’est pas une cellule sur plusieurs milliers d’images de cellules que les humains ont étiquetées manuellement. Ensuite, lorsqu’il est alimenté avec une nouvelle image non étiquetée, il reconnaît et peut compter les cellules qu’elle contient.
Mais un tel étiquetage manuel est laborieux et coûteux, même lorsqu’il est effectué avec l’aide d’experts, ce qui va à l’encontre de l’objectif d’une alternative censée être plus simple et moins chère que les analyseurs de cellules. »
Guangdong Zhan, co-auteur de l’article et professeur au Département de génie mécanique et d’automatisation de l’Université de Beihang
Les chercheurs de l’Université de Beihang ont donc développé un nouveau schéma de formation du CNN, dans ce cas, U-Net, un modèle de segmentation de réseau entièrement convolutif qui a été largement utilisé dans la segmentation d’images médicales depuis son premier développement en 2015.
Dans le nouveau schéma de formation, le CNN est d’abord formé sur un ensemble de plusieurs milliers d’images avec un seul type de cellule (extrait du sang de souris).
Ces images de type cellule unique sont « prétraitées » automatiquement par des algorithmes conventionnels qui réduisent le bruit dans les images, améliorent leur qualité et détectent les contours des objets dans l’image. Ils effectuent ensuite une segmentation d’image adaptative. Ce dernier algorithme calcule les différents niveaux de gris dans une image en noir et blanc, et si une partie de l’image se situe au-delà d’un certain seuil de gris, l’algorithme la segmente en un objet distinct. Qu’est-ce qui rend le processus adaptatif est que plutôt que de segmenter des parties des segments d’image selon un seuil de gris fixe, il le fait selon les caractéristiques locales de l’image.
Une fois que l’ensemble d’entraînement de type cellule unique est présenté au modèle U-Net, le modèle est affiné à l’aide d’un petit ensemble d’images annotées manuellement de plusieurs types de cellules. En comparaison, il reste une certaine quantité d’annotations manuelles et le nombre d’images devant être étiquetées par les humains passe de plusieurs milliers à seulement 600.
Pour tester leur programme de formation, les chercheurs ont d’abord utilisé un analyseur de cellules traditionnel sur les mêmes échantillons de sang de souris pour effectuer un comptage cellulaire indépendant auquel ils pourraient comparer leur nouvelle approche. Ils ont constaté que la précision de leur programme d’entraînement sur la segmentation d’images de type à plusieurs cellules était de 94,85 %, soit le même niveau atteint par l’entraînement avec des images de type à plusieurs cellules annotées manuellement.
La technique peut également être appliquée à des modèles plus avancés pour considérer des problèmes de segmentation plus complexes.
Comme la nouvelle technique de formation implique encore un certain niveau d’annotation manuelle, les chercheurs espèrent continuer à développer un algorithme entièrement automatique pour annoter et former des modèles.