Icono del sitio Robotitus

La IA aún no puede entender el mundo real, sugiere estudio del MIT y Harvard

La IA no puede entender el mundo real. / Robotitus/Grok

En el siglo XVII, Johannes Kepler descubrió cómo se movían los planetas alrededor del Sol. Gracias a sus leyes, cualquiera podía predecir dónde estarían en el cielo.

Décadas después, Isaac Newton dio un paso mucho más grande. Explicó el “por qué” con su ley de la gravitación universal. Ya no solo se sabía dónde, sino también por qué.

Newton convirtió fórmulas útiles en principios que aplicaban a todo: desde cañonazos hasta mareas, pasando por la órbita de la Luna o el lanzamiento de satélites.

Hoy, la inteligencia artificial está en una situación parecida a la de Kepler. Puede hacer predicciones muy precisas, pero no siempre entiende las razones de fondo. 

Un modelo del mundo 

Investigadores del MIT y Harvard se preguntaron si los modelos actuales de IA logran dar ese salto de simples predicciones a tener “modelos del mundo”.

El estudio fue presentado en la conferencia ICML 2025 en Vancouver, por un equipo de expertos de ambas instituciones.

Según Keyon Vafa, autor principal, los humanos siempre han pasado de predecir a entender. Pero, ¿lo ha hecho la IA hasta ahora? La respuesta: todavía no.

Sendhil Mullainathan, profesor del MIT, lo resumió bien: sabemos medir si un algoritmo predice bien, pero no si realmente entiende. Incluso definir “entender” fue un desafío.

La comparación Kepler-Newton ayuda. Kepler describía trayectorias, Newton explicó principios que servían en otras áreas. Eso mismo es lo que aún falta en la IA.

Otra analogía: durante siglos se criaron plantas y animales por intuición, pero Mendel explicó las leyes de la herencia. Esa diferencia entre técnica y comprensión es clave. 

Juegos 

Los investigadores probaron distintos sistemas de IA. Con ejemplos simples, lograban construir modelos realistas, pero cuando aumentaba la complejidad, la capacidad de entender desaparecía rápidamente.

Crearon una métrica llamada “sesgo inductivo”. Básicamente mide cuánto se acerca un modelo a la realidad, más allá de repetir patrones aprendidos.

Probaron con un modelo en forma de “rejilla”. Imagina una rana saltando entre lirios en fila. Con solo oír “izquierda”, “derecha” o “quieto”, el sistema lograba reconstruir el entorno.

Pero cuando aumentaron las dimensiones de la rejilla, los modelos ya no podían generalizar. Cuantos más estados posibles, más se alejaban de representar la realidad.

También probaron con el juego Othello. Los modelos sabían qué jugadas eran legales, pero no lograban reconstruir la posición completa de las fichas, sobre todo las bloqueadas.

En general, cuanto más compleja era la tarea, peor funcionaban los modelos para captar el verdadero “modelo del mundo”. 

Utilidad  

Aun así, esta métrica abre una oportunidad. Permite evaluar qué tan cerca está un modelo de realmente aprender, no solo de predecir. 

Eso sería útil en ciencia: predecir nuevas moléculas, propiedades químicas o proteínas desconocidas. Pero hoy, la IA todavía está lejos de ese nivel.

Los investigadores creen que el camino es claro. Si se mide el sesgo inductivo, se puede entrenar mejor y diseñar modelos que aprendan más profundamente.

Como dice Chang, en ingeniería, cuando tienes una métrica, siempre encuentras la forma de optimizarla.

Salir de la versión móvil