Diseñan en la UGR un sistema para diferenciar si una voz es real o se ha generado con inteligencia artificial

E+I+D+i - IndeGranada - Lunes, 29 de Julio de 2024
La herramienta puede ser de gran utilidad para combatir la desinformación, noticias falsas y estafas.
Sistema para identificar audios generados con inteligencia artificial.
ugr
Sistema para identificar audios generados con inteligencia artificial.

Investigadores de la Universidad de Granada (UGR), pertenecientes al departamento de Lenguajes y Sistemas Informáticos, han diseñado un sistema "pionero en el mundo", dice la UGR, que permite discernir si un audio de voz es real o está generado mediante algoritmos de inteligencia artificial (IA), un método de enorme utilidad para combatir la desinformación y las noticias falsas.

Este trabajo, realizado en el marco de la Cátedra RTVE-UGR, ha sido presentado este lunes en una rueda de prensa celebrada en el Hospital Real, en la que han participado los investigadores de la UGR Zoraida Callejas, David Griol y Daniel Calderón, expertos en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje, y el rector Pedro Mercado.

Investigadores y miembros de la UGR, junto al sistema Cabot presentado este lunes. ugr

En la actualidad, los avances en el uso de redes neuronales profundas para la síntesis de audio están permitiendo obtener voces sintéticas (esto es, generadas mediante IA) cada vez más realistas. Esto tiene grandes ventajas, pues permite dotar de voces más inteligibles a los sistemas automáticos (por ejemplo, lectores de texto, asistentes virtuales, robots…), así como controlar sus características, haciéndolas más expresivas y diversas (con aplicaciones por ejemplo en la producción de contenido multimedia).

Sin embargo, la síntesis de habla también se puede utilizar para crear o manipular grabaciones de audio para fines maliciosos, como la suplantación de identidad en estafas telefónicas o la generación de noticias falsas.

Ganan terreno los audios

Hasta ahora, el audio ha sido un problema menor en las redacciones en comparación con otros tipos de fake, como las fotografías o los vídeos. Sin embargo, en los últimos dos años está ganando terreno, por lo que es preciso contar con herramientas que ayuden a la detección de audios falsos y puedan servir a los periodistas como una nueva fuente para la verificación de noticias.

La investigación dirigida por los profesores Zoraida Callejas y David Griol que se ha presentado este lunes se ha realizado en el contexto de la Cátedra RTVE-UGR, en la que ambos investigadores participan junto con RTVE y la empresa Monoceros Labs.

Las líneas de investigación mencionadas se han aplicado en este caso a la verificación de audios para combatir la desinformación. “Hemos generado una herramienta que integra soluciones propias y de terceros para discernir si un audio es real o está generado con algoritmos de inteligencia artificial -han explicado los investigadores de la UGR-. Una de las novedades que introduce esta herramienta es que no sólo integra modelos generales, sino también modelos específicos generados en la UGR para voces de personalidades que son objetivo frecuente de desinformación”.

No en vano, durante la rueda de prensa los científicos han puesto como ejemplo voces clonadas mediante técnicas de IA para la conversión y clonación de voz de Monoceros pertenecientes al Rey Felipe VI; el presidente del Gobierno, Pedro Sánchez, o la vicepresidenta Yolanda Díaz. “Nuestro objetivo no es generar estas voces sintéticas de manera artificial, sino entrenar a nuestra IA mediante estas voces generadas por nosotros para que así el sistema pueda identificar si una voz es falsa o no con una alta precisión”, han destacado los investigadores de la UGR.

Actualmente se está trabajando para ir más allá de la verificación y desarrollar herramientas para los periodistas basadas en IA conversacional, que proporcionen interactividad, accesibilidad y personalización de contenidos informativos.