Los modelos de lenguaje como ChatGPT están por todos lados. Mucha gente los usa para buscar información o crear contenido. Son prácticos, rápidos y hablan varios idiomas.
Pero algunos científicos se han preguntado: ¿estos modelos responden igual en todos los idiomas? ¿O muestran ciertos valores culturales sin que nos demos cuenta?
Un grupo de investigadores del MIT y la Universidad de Tongji decidió averiguarlo. Estudiaron cómo responden dos modelos populares: GPT (más usado en EE.UU. y Europa) y ERNIE (común en China).
Compararon respuestas en inglés y en chino. Y encontraron algo muy curioso: los modelos no responden igual. Cambian de estilo y de enfoque dependiendo del idioma. Los resultados fueron publicados en Nature Human Behaviour.
Detectaron dos aspectos claves: la orientación social (si se enfocan más en lo colectivo o en lo individual) y el estilo cognitivo (si piensan de forma analítica o más global).
La influencia del lenguaje
En culturas orientales como la china, es más común pensar en comunidad y ver las cosas de manera más holística. En cambio, en Occidente, se valora más la individualidad y el análisis detallado.
Y eso mismo pasa con las respuestas de los modelos. Cuando GPT responde en chino, tiende a sonar más colectivo y holístico. En inglés, es más individualista y analítico.
No es que el modelo lo haga a propósito. Lo que pasa es que ha sido entrenado con textos que ya vienen cargados de valores culturales. Entonces, los repite sin querer.
Esto lo comprobaron también con ERNIE. En ambos idiomas, mostraba las mismas inclinaciones: más interdependencia y visión global en chino, más independencia y análisis en inglés.
Importancia
¿Y por qué esto importa? Porque podría influir en las decisiones de las personas. Por ejemplo, GPT en chino recomendó más anuncios que apelan a lo colectivo. En inglés, los anuncios eran más individualistas.
Eso significa que el idioma que elijas al usar una IA puede cambiar la forma en que esa IA te habla, te aconseja o incluso te vende algo.
Pero hay una salida. Los investigadores probaron que, si le pides al modelo que hable como alguien de una cultura específica, puede ajustar su estilo. A eso le llaman prompts culturales.
Eso abre la posibilidad de hacer que las respuestas sean más neutras o más personalizadas, según el contexto del usuario. Solo hay que saber cómo pedírselo al modelo.
Los resultados son una invitación a seguir estudiando cómo los sesgos culturales se cuelan en la inteligencia artificial. Y a pensar cómo hacerla más justa y consciente del mundo diverso en el que vivimos.





