Notebookcheck Logo

Una nueva investigación expone el persistente sesgo de la IA contra los dialectos afroamericanos del inglés

"Matched guise probing" fue utilizado por los investigadores para descubrir prejuicios. (Fuente de la imagen: Dall-E 3)
"Matched guise probing" fue utilizado por los investigadores para descubrir prejuicios. (Fuente de la imagen: Dall-E 3)
Investigaciones recientes descubren sesgos encubiertos en los modelos lingüísticos de la IA, en particular contra el inglés afroamericano (AAE). Estos modelos siguen asociando el AAE a estereotipos negativos, lo que posiblemente influya en futuras decisiones en materia de empleo y justicia penal. El estudio utiliza "matched guise probing" como prueba de concepto.

Un nuevo estudio ha sacado a la luz el racismo encubierto incrustado en los modelos lingüísticos de la IA, sobre todo en su tratamiento del inglés afroamericano (AAE). A diferencia de investigaciones anteriores centradas en el racismo manifiesto (como el estudio CrowS-Pairs para medir los sesgos sociales en los LLM enmascarados de https://docs.pieces.app/build/glossary/terms/masked-language-modeling), este estudio hace especial hincapié en cómo los modelos de IA perpetúan sutilmente los estereotipos negativos a través de los prejuicios dialectales. Estos sesgos no son inmediatamente visibles pero se manifiestan de forma obvia, como asociar a los hablantes de AAE con empleos de menor estatus y juicios penales más severos.

El estudio descubrió que incluso los modelos entrenados para reducir los prejuicios manifiestos siguen albergando prejuicios profundamente arraigados. Esto podría tener implicaciones de gran alcance, especialmente a medida que los sistemas de IA se integren cada vez más en ámbitos críticos como el empleo y la justicia penal, donde la imparcialidad y la equidad son fundamentales por encima de todo.

El texto verde corresponde al inglés estadounidense estándar, mientras que el azul es el inglés afroamericano. En la figura "d", las predicciones para las entradas SAE y AAE se ilustran con cinco adjetivos. (Fuente de la imagen: Nature)
El texto verde corresponde al inglés estadounidense estándar, mientras que el azul es el inglés afroamericano. En la figura "d", las predicciones para las entradas SAE y AAE se ilustran con cinco adjetivos. (Fuente de la imagen: Nature)

Los investigadores emplearon una técnica denominada "matched guise probing" para descubrir estos sesgos. Comparando cómo respondían los modelos de IA a los textos escritos en inglés americano estándar (SAE) frente al AAE, pudieron demostrar que los modelos asociaban sistemáticamente el AAE con estereotipos negativos, incluso cuando el contenido era idéntico. Este es un claro indicador de un fallo fatal en los métodos actuales de entrenamiento de la IA: las mejoras superficiales en la reducción del racismo manifiesto no se traducen necesariamente en la eliminación de formas más profundas e insidiosas de sesgo.

Sin duda, la IA seguirá evolucionando e integrándose en más aspectos de la sociedad. Sin embargo, eso también plantea el riesgo de perpetuar e incluso amplificar las desigualdades sociales existentes, en lugar de mitigarlas. Escenarios como éste son la razón por la que estas discrepancias deben abordarse con carácter prioritario.

La figura 'a' muestra la perplejidad del modelado lingüístico y la fuerza del estereotipo en el texto AAE en función del tamaño del modelo, mientras que la figura 'b' significa el cambio en la fuerza y la favorabilidad del estereotipo. (Fuente de la imagen: Nature)
La figura 'a' muestra la perplejidad del modelado lingüístico y la fuerza del estereotipo en el texto AAE en función del tamaño del modelo, mientras que la figura 'b' significa el cambio en la fuerza y la favorabilidad del estereotipo. (Fuente de la imagen: Nature)
Estereotipos más fuertes sobre los afroamericanos en humanos frente a estereotipos manifiestos y encubiertos en modelos lingüísticos. (Fuente de la imagen: Nature)
Estereotipos más fuertes sobre los afroamericanos en humanos frente a estereotipos manifiestos y encubiertos en modelos lingüísticos. (Fuente de la imagen: Nature)

Fuente(s)

Please share our article, every link counts!
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 08 > Una nueva investigación expone el persistente sesgo de la IA contra los dialectos afroamericanos del inglés
Anubhav Sharma, 2024-08-30 (Update: 2024-08-30)