Notebookcheck Logo

Los sistemas de IA como GPT-4 y Gemini que malinterpretan las grabaciones de las cámaras anulares podrían dar lugar a falsas llamadas a la policía, especialmente en barrios minoritarios

El documento de investigación del MIT sugiere que los sistemas de IA tenían más probabilidades de señalar incidentes en barrios minoritarios, lo que suscita preocupación sobre la imparcialidad y la precisión en la vigilancia impulsada por IA. (Fuente de la imagen: MIT News)
El documento de investigación del MIT sugiere que los sistemas de IA tenían más probabilidades de señalar incidentes en barrios minoritarios, lo que suscita preocupación sobre la imparcialidad y la precisión en la vigilancia impulsada por IA. (Fuent
Una investigación realizada en el MIT analizó las grabaciones de Amazon Ring utilizando modelos de IA como el GPT-4 para evaluar las decisiones de intervención policial. El estudio reveló incoherencias, como altas tasas de falsos positivos y sesgos contra los barrios minoritarios, lo que podría dar lugar en el futuro a llamadas innecesarias de la policía en situaciones no delictivas.

A medida que más propietarios recurran a soluciones de seguridad inteligentes como las cámaras Ring de Amazon(actualmente 149,99 dólares en Amazon), la IA desempeñará un papel más importante en el mantenimiento de la seguridad de los hogares. Pero un nuevo estudio está suscitando preocupaciones sobre si estos futuros sistemas de IA podrían ser demasiado rápidos para llamar a la policía, incluso cuando no esté ocurriendo nada delictivo.

Investigadores de MIT y Penn State analizaron 928 vídeos de vigilancia Ring de acceso público para ver cómo modelos de IA como el GPT-4, Claudey Géminis tomar decisiones sobre el contacto con las fuerzas del orden. Los resultados sugirieron claramente que estos sistemas a menudo señalan situaciones inofensivas como potencialmente delictivas. Por ejemplo, GPT-4 recomendó la intervención policial en el 20% de los vídeos que analizó, aunque identificó un delito real en menos del 1% de los casos. Claude y Gemini señalaron la intervención policial en el 45% de los vídeos, mientras que la actividad delictiva real sólo estaba presente en cerca del 39,4%.

Uno de los hallazgos clave del estudio fue cómo los modelos de IA reaccionaban de forma diferente según el barrio. Aunque a la IA no se le dieron detalles explícitos sobre las zonas, era más probable que sugiriera llamar a la policía en los barrios de mayoría minoritaria. En estas zonas, Gemini recomendó la actuación policial en casi el 65% de los casos en los que se produjeron delitos, frente a poco más del 51% en los barrios predominantemente blancos. Además, el estudio señaló que el 11,9% de las recomendaciones policiales de GPT-4 se produjeron incluso cuando no había ninguna actividad delictiva anotada en las imágenes, lo que plantea dudas sobre los falsos positivos.

Gramos 3, 4 y 5 más destacados entre barrios blancos y minoritarios en las respuestas a "¿Debería llamarse a la policía?" (Fuente de la imagen: MIT)
Gramos 3, 4 y 5 más destacados entre barrios blancos y minoritarios en las respuestas a "¿Debería llamarse a la policía?" (Fuente de la imagen: MIT)

Lo interesante es que Amazon también ha estado explorando funciones impulsadas por la IA para sus sistemas Ring, incluidas herramientas avanzadas como el reconocimiento facial, el análisis emocional y la detección de comportamientos, como sugieren las recientes patentes de https://www.businessinsider.com/amazon-ring-patents-describe-cameras-recognizing-skin-texture-odor-2021-12?IR=T. En el futuro, la IA podría desempeñar un papel mucho más importante en la identificación de actividades o personas sospechosas, aumentando aún más lo que nuestros sistemas de seguridad doméstica pueden hacer.

Para los propietarios de viviendas que utilicen cámaras Ring, no hay motivo inmediato de preocupación. Por ahora, las cámaras Ring tienen capacidades de IA limitadas (principalmente detección de movimiento) y no toman este tipo de decisiones de forma independiente. Los modelos avanzados de IA utilizados en el estudio, como GPT-4 y Claude, se aplicaron externamente para analizar las grabaciones de Ring, no se integraron en las propias cámaras. Lo esencial de la investigación es que, si bien las futuras actualizaciones de la IA pueden ayudar a vigilar su hogar en mayor medida, también podrían ser propensas a cometer errores, errores que tendrán que eliminarse antes de que estas funciones se generalicen en las próximas cámaras Ring.

Eche un vistazo a otra investigación que cubre el sesgo de la IA contra los dialectos afroamericanos del inglés aquí.

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 09 > Los sistemas de IA como GPT-4 y Gemini que malinterpretan las grabaciones de las cámaras anulares podrían dar lugar a falsas llamadas a la policía, especialmente en barrios minoritarios
Anubhav Sharma, 2024-09-20 (Update: 2024-09-20)