Las redes se han llenado de imágenes sexualmente explícitas de una de las personas más influyentes del momento: la cantante estadounidense Taylor Swift. Una vez más, como viene sucediendo mucho últimamente, no se trataba de fotografías reales, sino de desnudos creados con inteligencia artificial (IA), deepfakes para no. Una de las publicaciones más destacadas de la red social X acumula más de 35 millones de visualizaciones, 24.000 reenvíos y cientos de miles de Me gustaantes de que la plataforma interviniera para suspender la cuenta del usuario —verificado— que compartió las imágenes, por violar las políticas de red. Pero lleva casi un día circulando, tiempo más que suficiente para reavivar las alertas sobre el peligro de la proliferación de pornografía falsa generada por IA que ataca a las mujeres. Y sobre el desafío de frenar su difusión: Swift estaría estudiando si demandar al sitio web donde publicó por primera vez las imágenes, según el Correo diario.
Bloquear la cuenta original de X tampoco fue suficiente para resolver el asunto, ya que otros continuaron difundiendo las imágenes; algunos de los cuales aún permanecen activos. El término “Taylor Swift AI” se volvió tendencia en algunas regiones, tanto es así que incluso X ha salido a recordar, a través de un publicar desde tu cuenta oficial, su política de “tolerancia cero” hacia este tipo de contenidos. “Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas. Estamos monitoreando de cerca la situación para asegurarnos de que cualquier otra infracción se aborde de inmediato y se elimine el contenido. «Estamos comprometidos a mantener un entorno seguro y respetuoso para todos los usuarios», dice la publicación.
La publicación de imágenes de desnudos no consensuales (NCN) está estrictamente prohibida en X y tenemos una política de tolerancia cero hacia dicho contenido. Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas. Estamos de cerca…
— Seguridad (@Seguridad) 26 de enero de 2024
No es la primera vez que esto sucede, tanto a celebridades como a mujeres anónimas. Hace unos meses, un grupo de menores en Almendralejo fueron víctimas de imágenes manipuladas con una aplicación de inteligencia artificial, un caso que tuvo repercusión en España y despertó el interés público por los problemas que puede derivar de esta tecnología. También le pasó a Rosalía, quien denunció la publicación de profundo —un vídeo o una imagen estática donde se reemplaza el rostro de la imagen original por el de cualquier otra persona— por el cantante JC Reyes. En México, la difusión de cientos de miles de imágenes de los estudiantes provocó una protesta masiva en el Instituto Politécnico Nacional.
En el caso de Taylor Swift, lo digital 404 Medio sugiere que las imágenes pueden haberse originado en un grupo de Telegram, donde los usuarios comparten imágenes explícitas de mujeres generadas por IA a través de un generador gratuito de Microsoft. El primero en difundir el deepfakes es X es un usuario que se esconde detrás de la cuenta @Zvbear, que ha tenido que hacer privada su cuenta con más de 83.000 seguidores tras la veloces —como se conoce a los seguidores del cantante— han cargado contra él.
Los fans del cantante pop han criticado duramente Según algunos medios estadounidenses, el hombre detrás de @Zvbear es un ciudadano somalí de 27 años residente en Canadá, conocido por publicar contenidos subidos de tono en plataformas como 4chan, X y Reddit. Estas imágenes también han sido difundidas en una web dedicada expresamente a la difusión de desnudos de mujeres famosas, en algunos casos imágenes explícitas de películas en las que participaron, pero el volumen de los mismos sigue creciendo. deepfakes porno que ya ha afectado a celebridades como Meghan Markle, Megan Fox y Kate Upton.
El fenómeno de la pornificación de las mujeres a través de la inteligencia artificial se ha disparado en los últimos meses, pero los hombres no muestran preocupación, según un reciente estudio sobre el estado de la profundo hecho en los Estados Unidos. El 48% de los hombres encuestados allí reconocieron haber visto pornografía falsa al menos una vez. De ellos, el 74% dice no sentirse culpable por consumirlo, lo que sugiere que el contenido profundo Se ha convertido en una práctica aceptada y normalizada en las preferencias de entretenimiento de los adultos. Además, el 20% de los participantes en la encuesta había considerado la posibilidad de aprender a crear pornografía con inteligencia artificial para utilizarla con mujeres famosas o su entorno.
puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.



