Usando la IA para detectar deepfakes generados por IA: Una tarea complicada

Inteligencia artificial

En un mundo cada vez más digitalizado, los deepfakes de audio potenciados por la Inteligencia Artificial (IA) están sonando las alarmas en sectores tan diversos como la política y el fraude financiero.

La respuesta del gobierno federal ha sido prohibir las "robollamadas" que usan voces generadas por IA y ofrecer premios en efectivo por soluciones que mitiguen los daños del fraude de clonación de voz. Paralelamente, investigadores y el sector privado están en una carrera para desarrollar software capaz de detectar clones de voz, siendo estos a menudo comercializados como herramientas de detección de fraude.

 

El desafío de la detección

La detección incorrecta de estas falsificaciones de audio puede tener implicaciones graves. "Si etiquetamos un audio real como falso, por ejemplo, en un contexto político, ¿qué significa eso para el mundo? Perdemos la confianza en todo". Y si etiquetamos audios falsos como reales, entonces se distorsiona completamente el discurso de lo que es la verdad.

 

Un experimento revelador

Un experimento de NPR con tres proveedores de detección de deepfake audio - Pindrop Security, AI or Not y AI Voice Detector - reveló que estas soluciones tecnológicas no son infalibles. La mayoría de las herramientas afirmaron ser más del 90% precisas en diferenciar entre audio real y generado por IA, pero los resultados fueron mixtos, mostrando fallos significativos en la detección de clips generados por IA o la incorrecta identificación de voces reales como generadas por IA.

 

El uso de IA para atrapar IA

La detección de deepfakes implica entrenar modelos de aprendizaje automático, lo que equivale a utilizar IA para detectar IA. Estos modelos buscan patrones que los humanos no pueden percibir, como diferencias mínimas en señales de audio y ruido que son obvias para una computadora pero indetectables para el oído humano.

 

Desafíos en la detección

La precisión de estos modelos puede disminuir si el audio está degradado o contiene ruido de fondo. Los fabricantes de modelos necesitan entrenar sus detectores en cada nuevo generador de audio de IA en el mercado para detectar las sutiles diferencias entre ellos y las personas reales. Con nuevos modelos de deepfake lanzados con frecuencia y modelos de código abierto disponibles para todos, se convierte en un juego interminable de golpear al topo.

 

La detección a gran escala aún no es una realidad

Grandes empresas tecnológicas y plataformas de redes sociales como Meta, TikTok y X han expresado su interés en desarrollar tecnología para marcar, detectar y etiquetar contenido realista creado con IA. Aunque sus esfuerzos parecen centrarse más en el video, queda por ver si eso incluirá el audio. En un mundo donde la tecnología avanza a pasos agigantados, la colaboración entre generadores de deepfake y detectores puede ser clave para mejorar la detección.

---

🔷 Si quieres seguir al día con la Inteligencia Artificial pero desde el punto de vista práctico, lo que te sirve REALMENTE para conseguir más clientes o para crecer más en tu actividad profesional, solo tienes que suscribirte a nuestro Newsletter (que es gratuito) y te mantendremos al tanto de lo nuevo que vaya saliendo y que sea muy interesante y útil para ti. ¡Ya somos más de 23.000 miembros! Puedes Suscribirte gratuitamente aquí>

Javier Galué 

Suscríbete al único newsletter de IA que no te habla de aspectos técnicos sino que se centra en LOS BENEFICIOS que puedes sacarle a la Inteligencia Artificial. Es gratuito.

Javier G.

CEO

Patricia López

Sales Manager

María Gómez

Customer Support

¿SPONSORING?


Tenemos +30.000 miembros interesados en IA. Si quieres ser sponsor de nuestra newsletter escríbenos a: [email protected]

We have over 30,000 members interested in AI. If you want to sponsor our newsletter, write to us at: [email protected]