Saltar al contenido
Miradas.mx Miradas.mx
  • Portada
  • México
  • Estados
  • Internacional
  • Economía
  • Sectores
  • Ambiente
  • Ciencia
  • Cultura
miradasmx_logo

‘Eso es IA’: cómo los ‘deepfakes’ nos hacen sospechar de todo – The Conversation

 ‘Eso es IA’: cómo los ‘deepfakes’ nos hacen sospechar de todo – The Conversation
Internacional

‘Eso es IA’: cómo los ‘deepfakes’ nos hacen sospechar de todo – The Conversation

by websys 5 de mayo de 2026

En los últimos años, los deepfakes, contenidos hiperrealistas generados por inteligencia artificial, se han convertido en parte del panorama digital cotidiano. Este tipo de contenido ha dado lugar a una reacción casi automática en redes sociales. Un comentario breve que resume la sospecha colectiva: “Es IA”.

Esta frase aparece bajo cualquier publicación ligeramente sorprendente. Basta con que algo nos descoloque para que surja la duda. Por ejemplo, sabemos que la inteligencia artificial es capaz de clonar voces y esto ha cambiado nuestra forma de percibir la información y juzgar su autenticidad. El problema no es solo que existan audios falsos que se presentan como reales, sino el hecho de que, cuando cualquier contenido puede fabricarse con unos pocos clics, la sospecha deja de ser excepcional y se convierte en un reflejo automático.

Así, aparece una pregunta inevitable: ¿cómo distinguimos lo auténtico de lo artificial? Precisamente de eso trata el proyecto de investigación ¿Qué hace humana a una voz?, desarrollado en el Laboratorio de Fonética del CSIC. Conscientes del impacto social provocado por la proliferación de deepfakes, nuestro proyecto nace con una clara vocación divulgativa.

Para conocer mejor qué se ha publicado en el último año y medio sobre este tema, se puede consultar nuestra lista de lecturas, un recurso de acceso abierto con más de 100 entradas que recoge publicaciones científicas, ejemplos de deepfakes, referencias a la normativa sobre el tema y otros recursos para que el ciudadano pueda informarse sobre los usos maliciosos de la IA generativa.

Este artículo pretende trasladar parte de ese conocimiento a la ciudadanía mediante recomendaciones basadas en datos que, en el futuro, también puedan orientar la elaboración de políticas públicas. Para ello, conviene analizar qué ocurre cuando la desconfianza deja de ser la excepción y pasa a ser la norma.

¿Qué es el “dividendo del mentiroso”?

Esta situación da lugar al fenómeno conocido como el “dividendo del mentiroso” (liar’s dividend). El concepto describe una paradoja contemporánea: cuando sabemos que existen falsificaciones casi perfectas, resulta más fácil negar aquello que sí es auténtico. La mera posibilidad de que un audio sea falso se convierte en una coartada, siendo suficiente sembrar la duda para que pierda credibilidad ante la opinión pública.

Este fenómeno tiene implicaciones especialmente preocupantes en el ámbito judicial, pues se ha empleado como estrategia de defensa legal. Un ejemplo conocido es el de Elon Musk. En un litigio relacionado con el funcionamiento del autopiloto de un vehículo Tesla, argumentó que, al tratarse de una figura pública, era probable que existieran deepfakes de su voz, por lo que no debía admitirse como prueba un vídeo en el que aseguraba la fiabilidad absoluta de su tecnología. Sin embargo, al no presentarse pruebas que respaldaran la sospecha de que era un deepfake, el tribunal decidió mantener el vídeo como evidencia, señalando que lo contrario sentaría un precedente peligroso de inmunidad para figuras públicas.

Claves para la detección de deepfakes de audio

1. Cada vez es más difícil diferenciar únicamente con el oído si una voz es real o ha sido creada artificialmente. Son varios los estudios científicos que evidencian la limitada capacidad humana para detectar voces sintéticas. En cuatro años, hemos observado que los porcentajes de acierto de los oyentes que participan en estudios experimentales controlados de tipo perceptivo tienden a ser cada vez más bajos. Aunque los resultados no son directamente comparables entre estudios debido a diferencias metodológicas, todo indica que en condiciones reales –fuera del laboratorio– nuestra capacidad de acierto sería aún menor. Es decir, en la vida cotidiana somos especialmente vulnerables al engaño.

Resultados del acierto humano en estudios perceptivos recientes de ‘deepfakes’ de voz.
Charla divulgativa impartida por Aurora López Jareño, personal técnico de I+D+i del Laboratorio de Fonética, CSIC.

2. Las herramientas de detección automática de deepfakes tampoco son infalibles. Para que sean eficaces, deben tener en cuenta las condiciones reales en las que se crean y difunden los deepfakes, como el ruido de fondo o el uso de distintos algoritmos de clonación. Además, las bases de datos utilizadas para entrenar estos sistemas de detección deben ser realistas, diversas y abundantes. Por ejemplo, deben comprender distintos dialectos, estilos de habla, situaciones comunicativas, etc.

Los sistemas de detección producen buenos resultados cuando se entrenan con audiolibros, pero un deepfake en la vida real no suena como un actor leyendo un libro en un estudio de grabación profesional. La mayoría de las bases de datos con las que se entrenan los sistemas de detección consisten en habla leída, que dista mucho de la espontánea y conversacional.

3. Las recomendaciones actuales para identificar deepfakes son más útiles cuando el audio va acompañado de imágenes. Se suele recomendar fijarse en posibles fallos visuales como movimientos entrecortados o parpadeo irregular. Sin embargo, cuando se trata de audio solo –como en mensajes de voz– estas pistas desaparecen. Aun así, sigue siendo recomendable desconfiar de audios breves, verificar su origen y prestar atención a incoherencias o cambios repentinos.

En conclusión, aunque se están desarrollando sistemas de detección desde distintas disciplinas, estos aún deben mejorar para adaptarse a tecnologías de generación en constante evolución, pues su creación está mucho más desarrollada que su detección. Por ello, la responsabilidad se reparte entre la comunidad científica, que debe seguir investigando, y la ciudadanía, que debe ser consciente de los riesgos asociados.

La facilidad de acceso a estas herramientas, junto con su uso frecuente sin consentimiento, plantea problemas reales como la suplantación de identidad, la difamación o el fraude. En un entorno donde todo puede parecer falso, cuidar la confianza se convierte en un reto colectivo.

Ir a la fuente.

  • 0
    Whatsapp
  • 0
    Telegram
  • 0
    Facebook-messenger
  • 0
    Facebook
  • 0
    Twitter
  • 0
    Email

Compartir:

  • 0
    Whatsapp
  • 0
    Telegram
  • 0
    Facebook-messenger
  • 0
    Facebook
  • 0
    Twitter
  • 0
    Email
Anterior
Siguiente
Miradas.mx Miradas.mx
  • Contacto
  • Quienes Somos
  • Política de privacidad
  • Aviso Legal
miradasmx_logo
© miradas.mx 2009-2026 | Contenido bajo licencia Creative Commons | Bajo la supervición de Fundación Observatorio Periodístico A.C.