Notebookcheck Logo

DARPA publica herramientas de detección de deepfakes e inicia retos de colaboración para desarrollar más

DARPA lanza herramientas deepfake para ayudar a contrarrestar las imágenes, voces y noticias falsas de la IA. (Fuente: DARPA)
DARPA lanza herramientas deepfake para ayudar a contrarrestar las imágenes, voces y noticias falsas de la IA. (Fuente: DARPA)
DARPA ha hecho públicas sus herramientas de detección de deepfakes desarrolladas en su programa Semantic Forensics para contrarrestar las amenazas de la IA. Casi dos docenas de herramientas ayudan a detectar fotos y vídeos deepfake, así como texto y voz generados por IA. Los retos colaborativos AI FORCE que se publican cada cuatro semanas animan a los investigadores públicos a ayudar a desarrollar soluciones innovadoras contra la amenaza de la IA generativa.

DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa de EE.UU.) ha puesto a disposición del público sus herramientas de detección de deepfakes desarrolladas en su programa Semantic Forensics (SemaFor). La agencia ha puesto a disposición del público casi dos docenas de herramientas bajo licencia permisiva o abierta para detectar fotos y vídeos deepfake, así como texto y voz generados por IA. Para fomentar el desarrollo continuo, cada cuatro semanas se publicará una serie de retos colaborativos en el marco del programa AI Forensics Open Research Challenge Evaluations (AI FORCE) para ayudar a desarrollar nuevas herramientas y algoritmos que contrarresten la amenaza de la IA.

La caja de Pandora de la IA se confirmó abierta cuando el ingeniero de Google Blake Lemoine afirmó en 2022 que la IA LaMDA de Google sabía que era sintiente. Independientemente de cómo se defina la vida artificial, los usuarios de la IA pueden ver sin duda que sus capacidades son enormes y a menudo mejores que las de los humanos. Los lectores que hayan visto Terminator o Ghost in the Shell también reconocerán que la amenaza de la IA, ya sea iniciada por sus usuarios o por sí misma, es grande.

La misión de DARPA "realizar inversiones fundamentales en tecnologías de vanguardia para la seguridad nacional" le ha llevado a centrarse en el problema de las amenazas de la IA en el marco de su programa SemaFor. La agencia ha desarrollado un Catálogo Analítico de 19 componentes a los que se añadirán más con el tiempo. Todos los componentes son de código abierto en un esfuerzo por difundir al público las herramientas necesarias contra la IA.

Estas herramientas incluyen código y algoritmos desarrollados para detectar amenazas de la IA, como noticias falsas y textos publicados por la IA en Twitter y otros sitios, llamadas falsas del presidente Bideny fotos falsas del Papa creadas por herramientas generativas como Midjourney.

DARPA también espera colaborar con los investigadores y desarrolladores públicos a través de su programa AI FORCE centrándose en un nuevo ámbito de interés cada cuatro semanas para fomentar la innovación. Los lectores que deseen desarrollar herramientas contra la IA necesitarán una tarjeta gráfica Nvidia rápida(como ésta de Amazon).

La tecnología de defensa Deepfake está lista para su comercialización y transición

Para fomentar la transición de las tecnologías forenses semánticas a la industria y el gobierno, DARPA lanzará esfuerzos que reforzarán las defensas contra los medios manipulados

[email protected]/14/2024

La amenaza de los medios manipulados no ha dejado de aumentar a medida que las tecnologías de manipulación automatizada se hacen más accesibles y las redes sociales siguen proporcionando un entorno propicio para compartir contenidos virales.

La velocidad, la escala y la amplitud a las que pueden desarrollarse las campañas masivas de desinformación requieren defensas computacionales y algoritmos automatizados que ayuden a los humanos a discernir qué contenido es real y cuál ha sido manipulado o sintetizado, por qué y cómo.

A través del Semantic Forensics (SemaFor), y anteriormente el programa Media Forensics las inversiones en investigación de DARPA para detectar, atribuir y caracterizar los medios manipulados y sintetizados, conocidos como deepfakes, han dado lugar a cientos de análisis y métodos que pueden ayudar a organizaciones y particulares a protegerse contra la multitud de amenazas de los medios manipulados.

Con SemaFor en su fase final, las inversiones de DARPA han reducido sistemáticamente los riesgos de desarrollo, allanando el camino para una nueva era de defensas contra la creciente amenaza de los deepfakes. Ahora, la agencia hace un llamamiento a la comunidad en general -incluida la industria comercial y el mundo académico que investigan en este espacio- para que aprovechen estas inversiones.

Para apoyar esta transición, la agencia está lanzando dos nuevos esfuerzos para ayudar a la comunidad en general a continuar con el impulso de la defensa contra los medios manipulados.

El primero comprende un catálogo analítico https://semanticforensics.com/ que contiene recursos de código abierto desarrollados en el marco de SemaFor para uso de los investigadores y la industria. A medida que las capacidades maduren y estén disponibles, se irán añadiendo a este repositorio.

El segundo será un esfuerzo abierto de investigación comunitaria denominado AI Forensics Open Research Challenge Evaluation (AI FORCE), cuyo objetivo es desarrollar modelos innovadores y robustos de aprendizaje automático, o aprendizaje profundo, que puedan detectar con precisión imágenes sintéticas generadas por IA. A través de una serie de minidesafíos, AI FORCE pide a los participantes que construyan modelos capaces de discernir entre imágenes auténticas, incluidas las que pueden haber sido manipuladas o editadas con métodos ajenos a la IA, e imágenes totalmente sintéticas generadas por la IA. Este esfuerzo se pondrá en marcha la semana del 18 de marzo y se enlazará desde la página del programa SemaFor. Quienes deseen recibir una notificación pueden inscribirse en https://lp.constantcontactpages.com/su/9rZHGPf para recibir el boletín de la Oficina de Innovación de la Información.

Según los investigadores de DARPA y SemaFor, es necesario un esfuerzo concertado entre el sector comercial, las organizaciones de medios de comunicación, los investigadores y desarrolladores externos y los responsables políticos para desarrollar y desplegar soluciones que combatan las amenazas de los medios manipulados. SemaFor está proporcionando las herramientas y los métodos necesarios para ayudar a la gente en este espacio problemático.

"Nuestras inversiones han sembrado un espacio de oportunidades que es oportuno, necesario y está preparado para crecer", dijo el Dr. Wil Corvey, director del programa Semantic Forensics de DARPA. "Con la ayuda de la industria y el mundo académico de todo el mundo, el programa Semantic Forensics está listo para compartir lo que hemos iniciado para reforzar el ecosistema necesario para defender la autenticidad en un mundo digital"

Para más información sobre los esfuerzos y recursos mencionados, visite https://www.darpa.mil/program/semantic-forensics y https://semanticforensics.com/.

Para saber más sobre el programa SemaFor y una visión general sobre las tecnologías resultantes, consulte el episodio de Voices from DARPA sobre "Desmitificar las falsificaciones profundas" en https://www.darpa.mil/news-events/2023-06-16

Please share our article, every link counts!
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 06 > DARPA publica herramientas de detección de deepfakes e inicia retos de colaboración para desarrollar más
David Chien, 2024-06- 3 (Update: 2024-06- 3)