Les inquiétudes concernant les risques de biosécurité posés par les modèles d’intelligence artificielle (IA) en biologie ne cessent de croître. Face à cette inquiétude, Doni Bloomfield et ses collègues plaident, lors d’un forum politique, en faveur d’une meilleure gouvernance et d’évaluations de sécurité préalables à la mise sur le marché des nouveaux modèles afin d’atténuer les menaces potentielles.
« Nous proposons que les gouvernements nationaux, y compris les États-Unis, adoptent des lois et établissent des règles obligatoires qui empêcheront les modèles biologiques avancés de contribuer de manière substantielle à des dangers à grande échelle, tels que la création de nouveaux agents pathogènes ou de pathogènes améliorés capables de provoquer des épidémies majeures, voire des pandémies », écrivent les auteurs.
Les progrès réalisés dans le domaine des modèles d’IA biologique sont très prometteurs dans de nombreuses applications, de l’accélération de la conception de médicaments et de vaccins à l’amélioration du rendement et de la résilience des cultures. Cependant, outre ces avantages, les modèles d’IA biologique présentent également de sérieux risques. En raison de leur nature polyvalente, le même modèle qui conçoit un vecteur viral inoffensif pour la thérapie génique pourrait être utilisé pour créer un nouveau pathogène viral plus dangereux qui échappe aux vaccins. Bien que les développeurs de ces systèmes se soient engagés volontairement à évaluer les risques de double usage de ces modèles, Bloomfield et al. souligner que ces mesures ne suffisent pas à elles seules à garantir la sécurité.
Selon les auteurs, il existe un manque notable de gouvernance pour faire face aux risques, notamment des évaluations de sécurité standardisées et obligatoires pour les modèles d'IA biologique avancés. Bien que certaines mesures politiques existent, telles que le décret de la Maison Blanche sur l'IA et la déclaration de Bletchley signée lors du sommet britannique sur la sécurité de l'IA en 2023, il n'existe pas d'approche unifiée pour évaluer la sécurité de ces puissants outils avant leur mise sur le marché. Ici, Bloomfield et al. Il faut des politiques axées sur la réduction des risques de biosécurité liés aux modèles biologiques avancés, tout en préservant la liberté scientifique d’explorer leurs avantages potentiels. Les politiques devraient exiger des évaluations préalables uniquement pour les modèles d’IA avancés présentant des risques élevés.
Ces évaluations peuvent s’appuyer sur les cadres existants pour la recherche à double usage et devraient inclure des tests proxy pour éviter de synthétiser directement des agents pathogènes dangereux. En outre, la surveillance devrait tenir compte des risques liés à la divulgation des pondérations d’un modèle, qui pourraient permettre à des tiers d’apporter des modifications au modèle après sa publication. En outre, les politiques doivent garantir un partage responsable des données et restreindre l’accès aux systèmes d’IA présentant des risques non résolus.