Meta, la matriz de Facebook e Instagram, combate la pornografía «deepfake» de famosos con IA
El Consejo asesor de Meta analizará dos casos de imágenes de mujeres desnudas generadas por inteligencia artificial (IA) compartidas en Facebook e Instagram para tratar de determinar los daños que hace la pornografía ‘deepfake‘ en la sociedad y entender el uso y la prevalencia de esta a nivel global.
El órgano semiindependiente que revisa las decisiones y políticas de Meta seleccionado dos nuevos casos para analizar sobre el llamado porno ‘deepfake‘, esto es, las imágenes generadas o manipuladas con herramientas de IA de gran realismo que muestran personas desnudas con connotaciones sexuales.
En los dos casos aparecen mujeres desnudas en imágenes generadas con IA, una de ellas con parecido a una figura pública de India y en la otra, con una figura pública de Estados Unidos. Solo esta segunda fue eliminada por violar las políticas de contenido de Meta, mientras que la otra retiró tras ser seleccionada por el Consejo, como ha detallado en la de social X (antigua Twitter).
Además de analizar las decisiones tomadas por Meta en Facebook e Instagram y el enfoque adoptado por la compañía con este tipo de imágenes, aprovechará para profundizar en el impacto que tiene la pornografía ‘deepfake‘ en la sociedad.
Para este fin, el Consejo ha instado a organizaciones y expertos a contribuir en el análisis. Pretende abordar la naturaleza y la gravedad de los daños que plantea la pornografía ‘deepfake‘, y los daños específicos que afectan a las mujeres. También su uso y prevalencia a nivel mundial.
El caso de Taylor Swift
Una reciente investigación descubrió deepfakes de más de 4000 famosos. En enero, un deepfake no consentido de Taylor Swift se hizo viral en Facebook, Instagram y, sobre todo, X, donde una publicación obtuvo más de 45 millones de visitas.
X recurrió a restringir el nombre de la cantante de su función de búsqueda, pero las publicaciones siguieron circulando. Y mientras las plataformas se esforzaban por eliminar el contenido, fueron los fans de Swift quienes denunciaron y bloquearon las cuentas que compartían la imagen.
En marzo, NBC News informó de que los anuncios de una aplicación de deepfakes que circulaban por Facebook e Instagram mostraban imágenes de una Jenna Ortega desnuda siendo menor de edad. En la India, los deepfakes se han dirigido a importantes actrices de Bollywood, como Priyanka Chopra Jonas, Alia Bhatt y Rashmika Mandann.