OpenAI está trabajando en una IA que hace investigación científica 

Posted on
OpenAI está trabajando en una IA que hace investigación científica 

OpenAI cree que una IA que realiza investigación científica podría ayudarlos./Robotitus

OpenAI está cambiando el foco. Ahora quiere construir algo ambicioso, un “investigador de IA”. Se trata de un sistema automático que recibe problemas grandes y los resuelva solo. Ese objetivo guiará sus próximos años y junta varias líneas de trabajo como modelos que razonan, agentes y herramientas para entender qué hacen.

Para septiembre, la compañía planea un “interno de investigación” autónomo. No será perfecto, pero podrá encargarse de algunos problemas por su cuenta. Luego vendría algo más grande en 2028, un sistema con varios agentes trabajando juntos. 

La idea suena potente, atacar problemas demasiado complejos para nosotros los humanos, desde matemáticas hasta biología o decisiones de negocio. 

Trabajo previo

No es un salto en el vacío. OpenAI ya empuja la industria desde hace años, pero ahora compite fuerte con empresas como Anthropic y Google DeepMind. Lo que decida construir importa bastante.

Aquí entra Jakub Pachocki, el científico jefe. Él ayudó a crear GPT-4 y los modelos que razonan paso a paso. Cree que están cerca de sistemas que trabajen durante mucho tiempo sin perder coherencia, casi como una persona, aunque con humanos marcando objetivos.

Una pieza importante es Codex, una herramienta que ya automatiza tareas en la computadora. Puede analizar documentos, escribir código y más. Dentro de OpenAI muchos la usan a diario. Es como un primer boceto del investigador de IA. La apuesta es clara, hacer que estos sistemas trabajen más tiempo con menos supervisión.

El avance viene por varias vías. Los modelos ahora piensan paso a paso, corrigen errores y manejan tareas largas. También los entrenan con problemas difíciles para que aprendan a dividir retos grandes en partes manejables. No buscan solo ganar concursos de matemáticas, quieren aplicaciones reales. 

Aplicaciones 

Los resultados ya empiezan a notarse. Versiones recientes han propuesto ideas en ciencia que a un doctorado le tomarían semanas. Eso acelera todo. Aun así, no es magia. Todavía fallan, sobre todo cuando deben encadenar muchas tareas seguidas.

También hay riesgos. Un sistema así podría equivocarse, ser hackeado o malinterpretar instrucciones. Para controlarlo, usan monitoreo del razonamiento, básicamente hacer que la IA deje un rastro de lo que piensa mientras trabaja. Así detectan problemas antes de que escalen.

El panorama es raro. Mucho poder concentrado en pocos actores. Un centro de datos podría hacer el trabajo de equipos enteros. Eso abre preguntas incómodas sobre control, uso militar y regulación.

¿Llegará pronto ese futuro? Nadie lo tiene claro. Pero la dirección ya está marcada, sistemas cada vez más autónomos que no reemplazan todo, pero sí empujan el progreso mucho más rápido.