Un equipo de científicos de la Universidad de Alberta en Canadá ha logrado una gran mejora en los sistemas de inteligencia artificial (IA).
En un estudio publicado en Nature, los investigadores identificaron un problema crítico en las redes neuronales artificiales utilizadas en el aprendizaje profundo: estas redes tienden a perder su capacidad de aprender cuando se les expone a entrenamiento prolongado con nuevos datos, un fenómeno conocido como olvido catastrófico.
Sin embargo, el equipo también encontró una forma de mitigar este problema, permitiendo a las redes continuar aprendiendo de manera efectiva.
El estudio destaca que los sistemas de IA actuales, incluidos los grandes modelos de lenguaje (LLM) utilizados en chatbots, no pueden mejorar su precisión ni volverse más inteligentes al ser entrenados con nuevos datos. Esto limita su capacidad para adaptarse y evolucionar con el tiempo.
IAs olvidadizas
Los investigadores sometieron a prueba las redes neuronales convencionales y descubrieron que estas pierden la habilidad de realizar tareas previamente dominadas cuando se entrenan con información nueva.
Esta pérdida de capacidad se debe a que los grandes modelos de lenguaje fueron diseñados para aprender de manera secuencial a partir de conjuntos de datos fijos, lo que los hace vulnerables al olvido catastrófico.
Además, durante las pruebas, los investigadores observaron que las redes neuronales también sufren una «pérdida de plasticidad», lo que significa que no pueden aprender nuevas tareas si se entrenan de forma secuencial en múltiples actividades.
Solución
Para solucionar este problema, el equipo propone un nuevo método: restablecer los pesos de los nodos en las redes neuronales entre sesiones de entrenamiento.
En las redes neuronales, los pesos determinan la importancia de la información transmitida entre nodos, y ajustar estos pesos es clave para mantener la capacidad de aprendizaje.
Este enfoque permitiría que los sistemas de IA mantengan su plasticidad y continúen aprendiendo incluso cuando se les expone a nuevos conjuntos de datos, lo que podría mejorar considerablemente su rendimiento y adaptabilidad en aplicaciones futuras. Este avance marca un paso crucial hacia el desarrollo de IA más robustas y eficientes.