Incluso después de un entrenamiento antirracista, los chatbots de IA como ChatGPT siguen mostrando prejuicios raciales
Los investigadores que han estado probando chatbots de IA basados en grandes modelos lingüísticos como el Chat GPT4 de OpenAI han descubierto que aún pueden mostrar prejuicios raciales, incluso después de haber recibido formación antirracista. El último avance se produce después de que Google Gemini AI de Google después de que su nuevo LLM corrigiera en exceso el racismogenerando lo que algunos denominaron reinterpretaciones "woke" de la historia en las que, por ejemplo, se representaba a hombres afroamericanos como soldados nazis de la Segunda Guerra Mundial. Conseguir el equilibrio adecuado en materia de raza, al parecer, está resultando difícil para los creadores de modelos LLM.
En el último estudio, destacado por New Scientist, los investigadores descubrieron que docenas de modelos LLM diferentes que habían probado seguían mostrando un sesgo racial cuando se les presentaba un texto con dialectos afroamericanos. Y ello a pesar de que los modelos probados habían sido entrenados específicamente para evitar el sesgo racial en las respuestas que proporcionan los chatbots. Esto incluye a OpenAI's ChatGPT-4 y GPT-3.5 de OpenAI. En un caso, se demostró que GPT-4 se inclinaba más a recomendar una sentencia de muerte si hablaban utilizando un inglés con dialecto afroamericano.
El mismo "prejuicio encubierto" también se puso de manifiesto en las recomendaciones laborales que emparejaban a los afroamericanos con carreras que tenían menos probabilidades de requerir un título o llegaban a asociar a personas de ascendencia afroamericana sin un trabajo, en comparación con la entrada basada en el inglés estadounidense estándar. Los investigadores también descubrieron que cuanto mayor era el modelo lingüístico, mayor era la probabilidad de que presentara estos sesgos subyacentes. El estudio suscita preocupación respecto al uso de tecnologías de IA generativa con fines de selección, incluida la revisión de solicitudes de empleo.
Los investigadores concluyeron que su estudio plantea dudas sobre la eficacia de las intervenciones de formación en seguridad de la IA basadas en humanos, que sólo parecen eliminar el racismo y los prejuicios a un alto nivel, pero tienen dificultades para erradicarlo de los modelos actuales a un nivel inferior en el que no se menciona terminología específica que defina la identidad racial durante las aportaciones de los usuarios. Los investigadores recomiendan a las empresas que desarrollan LLM que tengan cuidado a la hora de poner a disposición del público los chatbots LLM antes de haberlos investigado a fondo.
Fuente(s)
New Scientist [sub. req.]
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck