Aunque no la veamos en forma de un robot humanoide, la inteligencia artificial (IA) ya forma parte del presente: desde las recomendaciones que Netflix hace cuando buscamos una serie o película hasta los vehículos autónomos que se manejan solos.
Si bien este tipo de tecnología facilita nuestras vidas, algunos científicos y filósofos advierten que en algún momento podría representar un peligro. En ese sentido, utilizando cálculos teóricos, un equipo internacional de investigadores muestra que, de existir una IA superinteligente, no tendríamos lo necesario para controlarla.
El estudio, liderado por Manuel Alfonseca del Instituto Max Planck de Desarrollo Humano, fue publicado en Journal of Artificial Intelligence Research.
Una inteligencia artificial superinteligente
“Supongamos que alguien programara una IA con inteligencia superior a la de los humanos, para que pudiera aprender de forma independiente”, se plantea en un comunicado oficial. “Conectada a Internet, la IA podría tener acceso a todos los datos de la humanidad. Podría reemplazar todos los programas existentes y tomar el control de todas las máquinas en línea en todo el mundo”.
Las preguntas que nacen a partir de este planteamiento son inevitables: ¿la existencia de una IA así produciría una utopía o una distopía? ¿La IA curaría todas las enfermedades, traería paz mundial y solucionaría el problema del cambio climático? ¿O destruiría a la humanidad y se apoderaría del planeta?
Un grupo de informáticos y filósofos se cuestionaron si los humanos seríamos capaces de controlar una IA superinteligente, con el fin de asegurarnos que no representen una amenaza para la humanidad. La respuesta fue una sola: sería fundamentalmente imposible.
“Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto en algún momento podría volverse incontrolable y peligroso para la humanidad”, plantea Manuel Cebrian, coautor del estudio.
¿Tenemos alternativas?
Los científicos han explorado algunas alternativas para “controlar” a una IA superinteligente. Lo primero que podríamos hacer es aislarla de internet y de otros dispositivos, hacer que no tenga contacto con el mundo exterior. Aunque esto podría reducir su capacidad de resolver problemas, podría hacer que persiga otros objetivos. Uno de ellos, se plantea, podría ser el de perseguir solo objetivos que sean de interés de la humanidad, por ejemplo, programando principios éticos en ella. Sin embargo, esta idea tiene sus límites.
En su estudio, los investigadores concibieron un algoritmo teórico de contención que garantiza que una IA no pueda dañar a personas bajo ninguna circunstancia. Sin embargo, un análisis profundo muestra que un algoritmo de estas características no puede ser construido en nuestro paradigma actual de computación.
“Si descompones el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabrías si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención”, explicó Iyad Rahwan.
En otras palabras: “ningún algoritmo puede encontrar una solución para determinar si una IA produciría daño al mundo”, explican en el comunicado.
Sera que se deba crear un algoritmo de «empatía» que condicione a la IA a que su razonamiento este cercano al de una Madre… para que ame a la humanidad, pero tenga la firmeza para mostrar resultados…
Mh! si ese fuese el camino -condicionar a la IA a un razonamiento de cercanía a la madre-… que nunca lea a Eurípides y el asunto aquel de Electra y Clitemnestra!
“Si descompones el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabrías si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención”, explicó Iyad Rahwan.
Es el Problema de la Parada (Turing).