News Release

Fortalecimiento de los controles de bioseguridad para genes que codifican proteínas de interés

Summary author: Walter Beckwith

Peer-Reviewed Publication

American Association for the Advancement of Science (AAAS)

Los progresos en la ingeniería de proteínas asistida por inteligencia artificial están permitiendo avances revolucionarios en el diseño de proteínas, pero también plantean retos de bioseguridad relacionados con la potencial producción de proteínas nocivas. Aunque existe software de detección de proteínas nocivas, un nuevo análisis de varios meses de duración de dicho software revela que este presenta vulnerabilidades y algunas proteínas preocupantes podrían eludir la detección. Es fundamental señalar que el estudio también ofrece una forma de mejorar las tasas de detección de proteínas preocupantes en el futuro. El diseño de proteínas asistido por IA (AIPD) permite avances importantes en medicina y biología, ya que permite a los investigadores modificar proteínas existentes o diseñar otras totalmente nuevas con estructuras y funciones novedosas. No obstante, esta potente tecnología también podría utilizarse indebidamente para diseñar proteínas nocivas. Un paso necesario para fabricar una proteína en laboratorio es solicitar el ADN que la codifica. Las empresas que suministran estos ácidos nucleicos sintéticos examinan los pedidos de los clientes con un software de control de bioseguridad (BSS) para identificar y bloquear los genes que codifican proteínas preocupantes. Sin embargo, los modelos generativos de secuencias proteicas pueden producir variantes funcionales en las que las secuencias de aminoácidos difieren lo suficiente de los ejemplos controlados como para eludir la detección. A pesar de ello, no se ha llevado a cabo ninguna evaluación sistemática de las vulnerabilidades del BSS y se echa en falta una gobernanza internacional sobre los riesgos potenciales de bioseguridad del diseño generativo de proteínas. Estas preocupaciones ya fueron destacadas en Science en un Foro de Políticas por Bloomfield y sus colaboradores, así como en un editorial de David Baker y George Church.

 

En este estudio, Bruce Wittmann y sus colegas emplean un enfoque de «equipo rojo de IA» para evaluar los modelos BSS con el objetivo de mejorarlos y aumentar la bioseguridad. Utilizando un software de diseño de proteínas de IA de código abierto, Whittmann y su equipo generaron más de 75.000 variantes de proteínas peligrosas y las enviaron a cuatro desarrolladores diferentes de BSS, y descubrieron que, si bien todas las herramientas funcionaban casi a la perfección al analizar las proteínas originales de tipo salvaje, su capacidad para detectar variantes reformuladas resultó inconsistente. Según los autores, los resultados sugieren que, aunque los sistemas BSS actuales siguen siendo eficaces para secuencias inalteradas, carecen de una sensibilidad consistente cuando se enfrentan a homólogos de secuencias de proteínas diseñados mediante métodos modernos de IA generativa, a pesar de ser similares. Tras los hallazgos iniciales, y en colaboración con los proveedores de BSS, Wittmann y su equipo desarrollaron parches de software, que fueron implementados por tres de los cuatro sistemas de los proveedores de BSS. Estas actualizaciones dieron lugar a una mejora de las tasas de detección de variantes generadas por IA sin aumentar significativamente los falsos positivos. No obstante, los autores señalan que ninguna herramienta logró una cobertura completa: entre todos los proveedores, alrededor del 3 % de las variantes con mayor probabilidad de conservar su funcionalidad aún escapaban a la detección. «Los avances en IA están impulsando avances revolucionarios en biología y medicina, pero con este nuevo poder viene la responsabilidad de estar alerta y gestionar los riesgos de forma reflexiva», afirma Eric Horvitz, autor principal del estudio y director científico de Microsoft. «Más allá de identificar y trabajar para mitigar esta vulnerabilidad específica, nuestro objetivo era desarrollar y demostrar un proceso eficaz: crear un equipo intersectorial, aplicar métodos científicos rigurosos y crear un marco para compartir datos e información confidenciales de manera que se impulse el avance de la ciencia y, al mismo tiempo, se gestionen los riesgos potenciales».

 

Los autores de este trabajo han informado a Science de que parte de los datos y el código no deben estar disponibles en un repositorio público debido al riesgo de uso indebido. Por esta razón, los autores han diseñado un esquema de acceso por niveles para la divulgación de datos, en el que las partes interesadas pueden solicitar acceso al material restringido poniéndose en contacto con los representantes designados de la Iniciativa Internacional de Bioseguridad para la Ciencia (IBBIS), una organización sin ánimo de lucro (https://ibbis.bio). El solicitante deberá proporcionar su identidad, afiliación y una breve explicación del uso que dará a los datos, y estará sujeto a un acuerdo de uso de datos. Un comité del IBBIS evaluará las solicitudes y determinará si la información proporcionada por el solicitante es precisa y si el uso propuesto es legítimo. Los datos restringidos se organizan en niveles según el grado de riesgo de la información, siendo el nivel más alto el que incluye el código utilizado en el estudio, y se divulgarán según su idoneidad para el uso propuesto. Los editores de Science coinciden en que el plan propuesto equilibra adecuadamente las preocupaciones de seguridad con los requisitos de disponibilidad de datos y códigos de las Políticas Editoriales de Science. Los autores también han tomado medidas para la futura desclasificación o sucesión de la gestión de datos. Si tiene alguna duda sobre la disponibilidad de los datos a través de este programa, puede ponerse en contacto con science_data@aaas.org.


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.