Latam-GPT es un nuevo modelo de lenguaje creado en y para América Latina. La iniciativa es impulsada por CENIA, el Centro Nacional de Inteligencia Artificial de Chile.
La idea es lograr independencia tecnológica en la región con un modelo abierto, libre y colaborativo, entrenado en los idiomas, contextos y particularidades culturales latinoamericanos.
Modelo abierto
Álvaro Soto, director de CENIA, explica que este reto no puede asumirlo un solo país. Requiere la colaboración de ciudadanos, instituciones y gobiernos de distintos rincones de la región.
El proyecto no busca competir con gigantes como OpenAI o Google. Pretende diseñar un modelo adaptado a los desafíos culturales, históricos y lingüísticos de América Latina y el Caribe.
Hasta ahora han formado 33 alianzas estratégicas y recopilado más de ocho terabytes de texto, equivalente a millones de libros. Con eso entrenan un modelo de 50 mil millones de parámetros.
Ese tamaño lo pone al nivel de GPT-3.5, capaz de realizar tareas complejas como razonamiento, traducción y asociaciones. Es un salto enorme para la ciencia de datos regional.
La base de entrenamiento incluye información de 20 países latinoamericanos y España, con un total de 2,645,500 documentos. Brasil lidera con 685 mil, seguido por México, España, Colombia y Argentina.
Los números reflejan el peso de cada mercado y su desarrollo digital. El modelo será especialmente fuerte en temas de relevancia regional, algo que los sistemas globales suelen descuidar.
Aplicaciones
El plan es empezar con un modelo lingüístico, pero más adelante crear versiones que integren imágenes y videos. El objetivo es escalar hacia tecnologías cada vez más avanzadas.
La infraestructura de supercómputo en la Universidad de Tarapacá, en Arica, sostiene el proyecto. Con doce nodos y potentes GPUs Nvidia H200, representa la mayor capacidad instalada en Chile.
Esa inversión, cercana a diez millones de dólares, no solo permite entrenar modelos a gran escala. También fomenta la descentralización y un uso más eficiente de la energía.
La primera versión de Latam-GPT saldrá este año. Con el tiempo se irá puliendo gracias a nuevos aliados y bases de datos más robustas y diversas.
Uno de los puntos clave es la diversidad. No se trata solo de acumular volumen, sino de equilibrar países, temas y culturas. La meta es lograr una representación justa.
Por eso, si un país como Nicaragua aparece con pocos datos, buscan colaboradores locales. También incluyen información cultural de pueblos ancestrales como aztecas o incas.
En el futuro incorporarán lenguas indígenas. Ya trabajan en traductores para mapuche y rapanui, mientras otros equipos investigan con guaraní. Es un esfuerzo propio, porque nadie más lo hará.
El verdadero éxito sería que, en 2030, Latam-GPT haya marcado un antes y un después en la inteligencia artificial regional, ayudando en educación, salud, cultura y otros sectores clave.





