Síguenos

¿Qué estás buscando?

27 junio, 2025

IA

nacional

IA reproduce prejuicios culturales

CDMX.- ChatGPT, Gemini, Llama y otros modelos de inteligencia artificial (IA) generativa no sólo transforman la manera en que interactuamos con la tecnología. También perpetúan prejuicios culturales, lingüísticos y sociales, de acuerdo con Nitesh Shawla, director del Lucy Family Institute for Data and Society de la Universidad de Notre Dame.

“El gran reto de la inteligencia artificial responsable es que no tenemos una definición clara de qué significa responsabilidad en este contexto. Y si no la tenemos, ¿cómo esperamos que los algoritmos la optimicen?”, dijo Shawla durante la conferencia inaugural del XVII Congreso Mexicano de Inteligencia Artificial, en el campus de la Universidad Panamericana. “Los modelos optimizan métricas como precisión, pero no sabemos cómo optimizar equidad o inclusión cultural”, dijo.

Uno de los puntos más críticos de la charla fue la denuncia del sesgo lingüístico y cultural en los grandes modelos de lenguaje (LLM, por su sigla en inglés).

“Estos modelos han sido entrenados mayoritariamente con datos públicos en inglés. Y no me refiero sólo a la lengua, sino a las normas culturales que esa lengua conlleva”, dijo. El problema, según el académico, va más allá de la traducción literal.

Te puede interesar

Advertisement