La IA se atiborra a esteroides y las medidas contra los “deepfakes” son insuficientes

La IA se atiborra a esteroides y las medidas contra los “deepfakes” son insuficientes

La inteligencia artificial (IA) está evolucionando a un ritmo absolutamente trepidante y los peligrosos «deepfakes» nacidos de su fecundo vientre son casi indistinguibles de las imágenes y los vídeos reales. Además, las etiquetas para identificar este tipo de contenido están ausentes o son en su defecto muy difíciles de detectar. Y tales etiquetas son asimismo relativamente fáciles de retirar, denuncia la Fundación Mozilla en un informe publicado este lunes.

Las marcas de agua de naturaleza técnica que automáticamente se incrustan en el contenido alumbrado por la IA son quizás la solución más robusta para etiquetar los «deepfakes». Sin embargo, tales marcas de agua contienen información que debe ser leída por el software en el dispositivo del usuario para ser desplegada correctamente (lo cual resta inevitablemente eficacia a este tipo de etiquetas).

En este sentido, Ramak Molavi Vasse’i, investigadora de Mozilla, advierte que las regulaciones encaminadas al correcto etiquetado de la IA se quedan a menudo en agua de borrajas. Al fin y al cabo, los denominados «deepfakes» se crean a menudo específicamente para engañar a los usuarios. Y si la industria tecnológica no efectúa suficientes progresos en lo referente a la autorregulación de la IA, debería ejercerse más presión sobre ella para parar adecuadamente los pies a los «deepfakes», subraya Molavi Vasse’i.

La creciente proliferación de «deepfakes» preocupa en un año en que se celebran elecciones allende los mares

El problema, dice la Fundación Mozilla en su estudio, es que la tecnología (la IA en particular) se pone en circulación sin pertrecharse desde el principio de medidas contra usos potencialmente maliciosos. Además, en lugar de utilizar estándares uniformes cada uno de los «players» que dan cita en la IA utilizan un enfoque diferente a la hora de regular esta tecnología.

A partir de simples especificaciones de texto la IA puede generar fotos inquietantemente realistas. Y los vídeos alumbrados con la tecnología de moda están preñados también de un asombroso realismo. OpenAI, la matriz de ChatGPT, presentaba, no en vano, hace poco Sora, una nueva herramienta para generar a partir de «prompts» de texto vídeos casi indistinguibles de los reales. Sin embargo, en Sora las etiquetas que dan cuenta del verdadero origen de los vídeos son tan pequeñas como difíciles de localizar por parte del usuario final, critica Ramak Molavi Vasse’i.

En 2024, cuando se celebrarán elecciones presidenciales en Estados Unidos, existe una gran preocupación por la eventualidad de que los cada vez más ubicuos «deepfakes» puedan influir en los resultados. De hecho, al otro lado del charco, poco antes de las primarias del Partido Demócrata en New Hampshire, se efectuaron llamadas automatizadas con la voz del presidente Joe Biden urgiendo a los votantes a no acudir a las urnas.

El contenido falso en formato audio es contemplado con un problema de primerísimo orden porque su identificación resulta más difícil que en el caso de los «deepfakes» de imagen y vídeo. De hecho, los audios generados con IA están siendo utilizados ya por criminales para efectuar robos parapetándose tras la voz de los familiares de las víctimas.

Fuente: https://www.marketingdirecto.com/digital-general/digital/ia-atiborra-esteroides-medidas-deepfakes-son-insuficientes