Une IA peut-elle détecter quand un humain ment – et devrions-nous lui faire confiance si elle le peut ? L'intelligence artificielle, ou IA, a connu de nombreux progrès récents et continue d'évoluer en termes de portée et de capacités. Une nouvelle étude menée par la Michigan State University étudie plus en détail dans quelle mesure l’IA peut comprendre les humains en l’utilisant pour détecter la tromperie humaine.
Dans l'étude, publiée dans le Journal de communicationdes chercheurs de MSU et de l'Université d'Oklahoma ont mené 12 expériences avec plus de 19 000 participants à l'IA pour examiner dans quelle mesure les personnages de l'IA étaient capables de détecter la tromperie et la vérité chez des sujets humains.
Cette recherche vise à comprendre dans quelle mesure l'IA peut faciliter la détection des tromperies et simuler des données humaines dans la recherche en sciences sociales, ainsi qu'à mettre en garde les professionnels lors de l'utilisation de grands modèles de langage pour la détection des mensonges.
David Markowitz, professeur agrégé de communication au MSU College of Communication Arts and Sciences et auteur principal de l'étude
Pour évaluer l’IA par rapport à la détection de la tromperie humaine, les chercheurs se sont inspirés de la théorie vérité-défaut, ou TDT. TDT suggère que les gens sont pour la plupart honnêtes la plupart du temps et que nous sommes enclins à croire que les autres nous disent la vérité. Cette théorie a aidé les chercheurs à comparer la façon dont l’IA agit à la façon dont les gens se comportent dans le même type de situations.
« Les humains ont un biais naturel envers la vérité – nous supposons généralement que les autres sont honnêtes, qu'ils le soient ou non », a déclaré Markowitz. « On pense que cette tendance est utile sur le plan évolutif, car douter constamment de chacun demanderait beaucoup d'efforts, rendrait la vie quotidienne difficile et mettrait à rude épreuve les relations. »
Pour analyser le jugement des personnages de l’IA, les chercheurs ont utilisé la plateforme de recherche Viewpoints AI pour attribuer des médias humains audiovisuels ou uniquement audio à l’IA pour qu’ils les jugent. Les juges de l'IA ont été invités à déterminer si le sujet humain mentait ou disait la vérité et à fournir une justification. Différentes variables ont été évaluées, telles que le type de média (audiovisuel ou audio uniquement), le contexte contextuel (informations ou circonstances qui aident à expliquer pourquoi quelque chose se produit), les taux de base de mensonge et de vérité (proportions de communication honnête et trompeuse) et la personnalité de l'IA (identités créées pour agir et parler comme de vraies personnes) pour voir comment la précision de détection de l'IA a été affectée.
Par exemple, l’une des études a révélé que l’IA était biaisée en matière de mensonge, car l’IA était beaucoup plus précise pour les mensonges (85,8 %) que pour les vérités (19,5 %). Dans des contextes d'interrogation courts, la précision de tromperie de l'IA était comparable à celle des humains. Cependant, dans un contexte sans interrogatoire (par exemple, lors de l'évaluation de déclarations concernant des amis), l'IA a affiché un biais de vérité, s'alignant plus précisément sur les performances humaines. De manière générale, les résultats ont révélé que l’IA est plus biaisée par le mensonge et beaucoup moins précise que les humains.
« Notre objectif principal était de voir ce que nous pouvions apprendre sur l'IA en l'incluant en tant que participant à des expériences de détection de tromperies. Dans cette étude, et avec le modèle que nous avons utilisé, l'IA s'est avérée sensible au contexte – mais cela ne l'a pas rendu plus efficace pour détecter les mensonges », a déclaré Markowitz.
Les résultats finaux suggèrent que les résultats de l'IA ne correspondent pas aux résultats ou à la précision humains et que l'humanité pourrait constituer une limite importante, ou une condition limite, pour l'application des théories de détection de tromperie. L’étude souligne que l’utilisation de l’IA pour la détection peut sembler impartiale, mais que l’industrie doit faire des progrès significatifs avant que l’IA générative puisse être utilisée pour la détection des tromperies.
« Il est facile de comprendre pourquoi les gens pourraient vouloir utiliser l'IA pour détecter des mensonges – cela semble être une solution de haute technologie, potentiellement juste et peut-être impartiale. Mais nos recherches montrent que nous n'en sommes pas encore là », a déclaré Markowitz. « Les chercheurs et les professionnels doivent apporter des améliorations majeures avant que l'IA puisse réellement gérer la détection des tromperies. »

























