Un equipo de Microsoft descubrió, usando inteligencia artificial, una vulnerabilidad desconocida en los sistemas de bioseguridad que evitan el mal uso del ADN. Esos sistemas impiden comprar secuencias genéticas peligrosas.
El hallazgo, publicado en Science, revela que los investigadores lograron burlar esas defensas sin manipular material biológico real. Todo fue una simulación digital, pero el resultado preocupa.
La investigación
El grupo, dirigido por Eric Horvitz, usó algoritmos de IA generativa que diseñan nuevas formas de proteínas. Estas herramientas sirven tanto para crear medicamentos como para generar moléculas dañinas.
Por eso, en 2023, Microsoft inició un experimento llamado “red teaming”. Su meta era comprobar si la IA podía diseñar proteínas nocivas que escaparan a los filtros de bioseguridad.
Los filtros atacados eran programas que usan las empresas que venden ADN sintético. Estas verifican los pedidos comparando las secuencias con bases de datos de toxinas conocidas.
Si un pedido se parece a algo peligroso, se activa una alerta. Pero Microsoft consiguió modificar toxinas para que el software no las detectara, sin perder su potencial dañino.
Para eso emplearon varios modelos de IA, incluido su propio sistema EvoDiff. Rediseñaron digitalmente toxinas conocidas para que parecieran inofensivas ante los filtros automatizados.
Cautela
Antes de publicar los resultados, la compañía avisó al gobierno de Estados Unidos y a los fabricantes de software. Estos ya aplicaron correcciones, aunque no son totalmente efectivas.
“El parche no cubre todo, y la tecnología sigue avanzando”, explicó Adam Clore, coautor del estudio. “Esto es solo el comienzo de una nueva etapa de pruebas”.
Microsoft decidió no compartir partes del código ni revelar qué proteínas rediseñó. Buscan evitar que otros intenten replicar el ataque con fines peligrosos. Entre los ejemplos de proteínas tóxicas conocidas están la ricina, proveniente del ricino, y los priones que causan la enfermedad de las vacas locas.
Expertos como Dean Ball, del Foundation for American Innovation, advierten que este caso muestra la urgencia de mejorar los sistemas de control del ADN sintético.
El gobierno estadounidense ya considera esa vigilancia una línea crítica de defensa. Sin embargo, todavía no ha emitido nuevas reglas concretas.
Otros científicos, como Michael Cohen de la Universidad de California, creen que ese punto de control no basta. Según él, siempre habrá formas de engañar al sistema. Cohen propone incluir la bioseguridad dentro de los propios modelos de IA, limitando lo que pueden generar o compartir.
Clore, en cambio, insiste en que vigilar la síntesis de genes sigue siendo la opción más práctica, aunque reconoce algo inquietante: “Ya no se puede encerrar al genio de la IA en su botella”.





