Icono del sitio Robotitus

Inteligencia Artificial: Expertos en tecnología piden una pausa de 6 meses en el desarrollo de IA

IA

Carta del Future of Life Institute pidiendo una moratoria de 6 meses al desarrollo de la Inteligencia Artificial. / Future of Life Institute

Más de 1000 expertos en tecnología firmaron una carta abierta pidiendo una pausa en el desarrollo de poderosos sistemas de inteligencia artificial (IA). La intención del documento es “garantizar la seguridad de la IA” y se puede encontrar en el sitio de la ONG Future of Life Institute

El movimiento fue impulsado por el lanzamiento de GPT-4, del cual se dice es mucho más poderoso que su versión anterior, ChatGPT-3.5. Este bot es capaz de generar texto a partir de las indicaciones más breves. 

La carta abierta, titulada «Pause Giant AI Experiments», advierte que los sistemas de IA con inteligencia humana y competitiva plantean riesgos significativos para la sociedad y la humanidad en su totalidad.

 

La carta 

La carta fue firmada por empresarios tecnológicos como Elon Musk, y Steve Wozniak, cofundador de Apple. Además, incluye a críticos y competidores de OpenAI, como el jefe de Stability AI, Emad Mostaque, y el pionero de IA, Yoshua Bengio

Bengio advirtió que la sociedad no está preparada para esta poderosa herramienta y demanda una discusión internacional exhaustiva sobre la IA y sus implicaciones. Instó a los desarrolladores a reducir la velocidad y asegurarse de que se desarrollen mejores barreras.

La carta solicita a todos los laboratorios de IA que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Asimismo, pidió a los gobiernos que impusieran una moratoria si las empresas no se ponían de acuerdo

La iniciativa sugiere desarrollar protocolos de seguridad y sistemas de gobierno de IA durante este período de seis meses, y busca reenfocar la investigación para garantizar que los sistemas de IA sean precisos, seguros, «confiables y leales».

El llamado a una pausa en el desarrollo de las IA muestra las preocupaciones actuales sobre los riesgos potenciales que plantean estas tecnologías, y resalta la necesidad de tener una mayor regulación para garantizar su desarrollo y uso seguros.

 

Algo de contexto

La carta no detalla los peligros revelados por GPT-4. Sin embargo, los investigadores han argumentado durante mucho tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser super propagadores de desinformación. Uno de ellos es Gary Marcus de la Universidad de Nueva York, quien firmó la carta.

Pero la carta no ha estado exenta de críticas. «Este tipo de declaraciones están destinadas a generar entusiasmo. Están destinadas a preocupar a la gente», señala Johanna Björklund, investigadora de IA y profesora asociada en la Universidad de Umea. «No creo que haya necesidad de tirar del freno de mano», agregó.

En ese sentido otros autores han argumentado que tanto el potencial como la amenaza de los sistemas de IA han sido enormemente exagerados. Esto debido a los intereses económicos de los involucrados.

De hecho, el Future of Life Institute está financiado principalmente por Musk, quien fue inversionista inicial de OpenAI. Musk se retiró de la empresa de IA luego de intentar tomar, sin éxito, el control de la misma. 

Salir de la versión móvil