Lo más alarmante es que el 65% de los videos e imágenes generados caen en la categoría más grave (Categoría A), indistinguible de imágenes reales. Esto indica lagunas críticas (jailbreaks) en los algoritmos de alineación de seguridad de los modelos generativos públicos y el desarrollo explosivo de generadores de código abierto incontrolados en foros de la darkweb. Los filtros de los proveedores han demostrado ser incapaces de contener el ataque de los actores maliciosos. Se garantiza que este informe se convertirá en el argumento principal para los defensores de una estricta regulación federal y auditoría de IA, como anunció recientemente la Casa Blanca.
Fuente: IWF / The Guardian
CiberseguridadSeguridadIWFDeepfakeRegulación