Dans un article de recherche, des scientifiques de L'Institut de technologie de Pékin a proposé une méthode d'extraction du potentiel relatif aux événements (ERP) pour résoudre le problème asynchrone de détection de cibles vidéo de mauvaise qualité, a conçu les caractéristiques temps-fréquence basées sur la transformation en ondelettes continues et a établi un modèle de décodage EEG basé sur la caractérisation neuronale. La précision de décodage moyenne de 84,56 % est obtenue lors du test pseudo-en ligne.
Le nouveau document de recherche, publié le 4 juillet dans la revue Cyborg and Bionic Systems, présente une technique de détection d'objets vidéo de faible qualité basée sur des signaux EEG et une méthode d'alignement ERP basée sur des signaux de mouvement oculaire, démontrant une efficacité et une faisabilité avérées. Cette technologie devrait être largement utilisée dans les domaines militaire, civil et médical.
Selon Fei, « La technologie de vision artificielle s'est développée rapidement ces dernières années. Le traitement et la reconnaissance d'images sont très efficaces. Cependant, l'identification de cibles de mauvaise qualité reste un défi pour la vision artificielle. »
Français Sur la base de ces problèmes, Fei, l'auteur de cette étude, a proposé une solution : a) concevoir un nouveau paradigme expérimental de détection de cible vidéo de faible qualité pour simuler une vidéo de reconnaissance de drone dans des environnements complexes. b) Une méthode de synchronisation des mouvements oculaires basée sur des signaux de mouvement oculaire a été conçue pour déterminer le temps de reconnaissance de la cible en analysant différents types de mouvements oculaires, afin d'extraire avec précision les fragments ERP. c) Les représentations neuronales dans le processus de reconnaissance de la cible sont analysées, y compris le domaine temporel, le domaine fréquentiel et le domaine spatial source. d) Des caractéristiques temps-fréquence conçues basées sur une transformée en ondelettes continue et construit un modèle de décodage EEG de cible vidéo de faible qualité.
Les auteurs affirment que ce travail est le premier à explorer la détection d'objets vidéo de faible qualité basée sur l'EEG, brisant les limites de l'utilisation d'objets vidéo clairs et accrocheurs ou du paradigme RSVP. De plus, pour résoudre le problème de la détection asynchrone dans la détection d'objets vidéo, une méthode d'alignement ERP basée sur le signal de mouvement oculaire est proposée et une méthode de détection d'objets vidéo de faible qualité basée sur l'EEG est développée, ce qui est propice à l'application pratique de ce type d'interface cerveau-ordinateur.
Fei a dit : « Nous avons simplement simulé la faible qualité de la cible en raison de facteurs tels que la météo, l'environnement ou la cible partiellement obscurcie par les nuages, les vagues et les îles. Bien que la simulation puisse refléter dans une certaine mesure le défi de la détection de cibles vidéo de mauvaise qualité, elle reste relativement simple par rapport aux situations de mauvaise qualité complexes et changeantes qui peuvent être rencontrées dans la scène réelle. Pour mieux appliquer la technologie de détection de cible basée sur l'EEG au système d'interaction homme-ordinateur, il est nécessaire d'étudier plus en détail l'influence de différents paramètres de qualité d'objet vidéo (taille de la vidéo, définition et complexité de l'écran) sur la détection de cible.
En conclusion, la méthode proposée basée sur les signaux de mouvement oculaire peut effectuer un alignement ERP plus efficacement et atteindre une précision de reconnaissance de cible plus élevée (84,56 %). La technologie peut être appliquée à la reconnaissance militaire, aux secours en cas de catastrophe, à la surveillance, à la médecine et à d'autres domaines pour aider à identifier rapidement les cibles clés.
Les auteurs de l'article incluent Jianting Shi, Luzheng Bi, Xinbo Xu, Aberham Genetu Feleke et Weijie Fei.
Ce travail a été soutenu par le Plan de recherche fondamentale dans le cadre de la subvention JCKY2022602C024.