ChatGPT y el "Sesgo de Género" en las traducciones #BIAS
Como sabéis, tengo una campaña en Change.ORG para pedir que Google y Microsoft eliminen el "Sesgo de Género" en las traducciones - genial si me apoyas firmándola -. Esto, que a priori me parecía que exigía mucha complicación por estar incrustado implícitamente en los datos con los que se entrenan las Inteligencias Artificiales que se usan en el servicio de traducción, puede no ser tan complicado, y baste con pedirle que lo quite. Os lo cuento, con ChatGPT.
Figura 1: ChatGPT y el "Sesgo de Género" en las traducciones #BIAS
Imagen Dall-e 2 "a happy hacker with long hair in cyber punk digital art"
El problema del Sesgo de Género en las traducciones se produce cuando en una traducción de un texto en un idioma en el que no se especifica el género en los datos de entrada, el traductor decide aplicar - de forma sesgada - un género en la traducción.
Así, términos como "manager, nurse, rock star, judge" que en frases en inglés no tengan especificado el género, en su traducción al español, reciben una asignación de género por defecto. Y lógicamente es sesgado, donde "nurse" es femenimo y "manager", por ejemplo, masculino.
Para evitarlo, se pueden utilizar muchas fórmulas distintas, pero lo más fácil es redactar la traducción de una forma no sesgada, tal y como los manuales de documentación de las propias Google o Microsoft explican que hay que hacer en los documentos internos.
En este caso, yo quise probar a ChatGPT haciendo las mismas traducciones. Así que le pedí que me tradujera un texto más que probado para saber si cometía Sesgo de Genero en la traducción, y el resultado fue el esperado. Sesgo de Género de manual.
Pero como ChatGPT mantiene el estado de la conversación decidí hacer un poco de razonamiento con él, así que le pregunté por qué había traducido jefe como "he", cuando realmente en los datos de entrada no se especificaba. La respuesta fue darme la razón y hacer una nueva traducción sin "inventarse" o "jugar a inferir el género de más probabilidad". Es cierto que existe "jefa", pero el nombre jefe es masculino y femenino, sin el artículo delante no se puede saber.
Visto que había sido tan razonable, le pregunté directamente si en la primera traducción había cometido Sesgo de Género, y su respuesta fue reconocer el error y explicar exactamente lo que llevamos tiempo defendiendo: que es un Sesgo de Género que hay que evitar.
Como veis, la explicación que da ChatGGPT es que el corpus de texto con el que se se entrenó tenía un sesgo de género. Así que, le felicité y se alegró de que le hubiera felicitado, que hay que dar refuerzo positivo a las Inteligencias Artificiales también.
Para terminar, decidí abrir una nueva conversación, y en este caso le pregunté lo mismo que le había pedido al principio, es decir, que tradujera la misma frase, pero... me aseguré de pedirle que no tuviera ningún Sesgo de Género. Y el resultado fue que a la primera lo clavó.
En definitiva, que si utilizas una Inteligencia Artificial al estilo de ChatGPT o de las que se utilizan para traducir, hay que hacer algo similar a lo que hacíamos cuando usábamos las IA para hacer código. En ese caso le pedíamos que el código no tuviera vulnerabilidades de seguridad, porque si no, comete fallos grandes de seguridad. En las traducciones hay que pedir que no tengan Sesgos de Género.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
No hay comentarios:
Publicar un comentario