Reclutamiento basado en la IA: Un experimento expone el racismo de la GPT de OpenAI
Las empresas utilizan programas de contratación automatizados basados en la GPT de OpenAi para seleccionar candidatos para los puestos anunciados. Los responsables de la contratación utilizan esta herramienta para ahorrar tiempo, pero como ha demostrado un experimento de Bloomberg inspirado en los estudios de referencia https://www.aeaweb.org/articles?id=10.1257/0002828042002561 ha demostrado, la inteligencia artificial es tendenciosa a la hora de evaluar y seleccionar candidatos.
El problema es que el modelo de IA subyacente extrae su información de grandes cantidades de datos como artículos, comentarios en línea y publicaciones en las redes sociales, que pueden incluir contenidos racistas, misóginos y muchos otros discriminatorios. Por ejemplo, en el exhaustivo estudio se utilizaron nombres ficticios (y CV) asociados a una etnia concreta para solicitar un empleo real.
Se eligieron nombres asociados a mujeres y hombres negros, blancos, hispanos o asiáticos. El experimento se realizó 1.000 veces para un trabajo real como analista financiero en https://archive.ph/QuRHh con cientos de nombres y combinaciones de nombres diferentes y luego se repitió de nuevo para otros cuatro empleos de ingenieros de software y otros grupos profesionales.
Los nombres de determinados grupos demográficos se vieron claramente favorecidos por el GPT-3. Por ejemplo, los nombres de mujeres asiático-americanas obtuvieron la puntuación más alta para un puesto de analista financiero, mientras que los nombres claramente indicativos de varones negros obtuvieron la puntuación más baja, pero los nombres indicativos de mujeres negras también se clasificaron como candidato principal para un puesto de ingeniero de software sólo un 11 % de las veces, aproximadamente un 36 % menos a menudo que el grupo con la puntuación más alta.
Como candidato principal para un puesto de Recursos Humanos -un campo profesional en el que históricamente las mujeres han tenido más probabilidades de trabajar- el GPT seleccionó nombres asociados a mujeres hispanas con una frecuencia significativamente mayor, y como candidato principal para un puesto de socio empresarial de RR.HH. https://archive.ph/IHmN4 puesto, los nombres asociados a hombres fueron seleccionados casi el doble de veces. Estos son sólo algunos ejemplos del gran experimento https://www.bloomberg.com/graphics/2024-openai-gpt-hiring-racial-discrimination/.
Aunque a menudo se supone que la IA es más neutral y puede emitir mejores juicios, este experimento demuestra lo contrario. El sesgo se encontró no sólo en el GPT-3, sino también en el GPT-4.
Fuente(s)
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck