Este artículo forma parte del boletín semanal de tecnología, que se envía todos los viernes. Si quieres apuntarte para recibirlo completo, con temas similares, pero más variados y breves, Puedes hacerlo en este enlace.
La foto falsa de la princesa Kate Middleton no es la primera foto retocada, recreada o inventada con Photoshop. Es sólo otro ejemplo notable. Pero así son las revoluciones: un día son una profecía, luego te asustan y luego vivimos en ellas y nadie se ha dado cuenta del todo.
Durante años los titulares han amenazado con un futuro sombrío lleno de mentiras y deepfakes generado con inteligencia artificial (IA). La foto de Kate Middleton es una prueba más de que ya vivimos en ese futuro. La IA sirve de intimidación, pero ni siquiera ha sido necesario distorsionar la imagen de Middleton. Ha estado utilizando Photoshop, una herramienta creada en 1987.
Está claro que la foto de Middleton no nos ha engañado. Ha sido al revés: sirvió para ilustrar Mejor la mentira que intentaba pasar la casa real. Está claro que las imágenes ya no sirven para demostrar nada. Este extremo de la evidencia visual, que ha ido llegando a base de pequeñas alarmas, me parece más importante.
1. Las fotos cuestionables son falsas por defecto. Los titulares llevan años diciéndonos que todo será mentira y no sabremos qué será verdad. Huelga decir que nuestra posición original tiende a la duda. ¿Qué pasará cuando salga la primera foto real de Kate Middleton? Todos miraremos primero las mangas del suéter, los dientes, las hojas de los árboles, los dedos, los pliegues del calcetín.
Sin saberlo, sin querer, hemos creado una generación fascinante de detectives de la imagen. La casa real necesitará pruebas adicionales, otras muestras de transparencias junto con la fotografía.
2. Es un sentimiento extraño. Las fotos se parecerán cada vez más a un penalti dudoso, que siempre parece más claro si no afecta a tu equipo. Si la foto muestra algo que nos gusta, nos parecerá más fiel.
No ha pasado ni un año desde la foto del Papa vestido de Prada, publicada en aquel momento. ¿Sería lo mismo hoy? Tal vez no. Es una sensación extraña ver cómo pasamos de tomar las imágenes como evidencia a tomarlas como pista de falsedad. Es un proceso lento. Ningún día surgirá el ejemplo definitivo. Cada cierto tiempo hay un nuevo ejemplo que suscita una nueva preocupación. Seguirá sucediendo.
3. Es información errónea en el patio de la escuela. El abrigo Prada del Papa o el caso Kate Middleton son desinformación con pocas implicaciones. Las imágenes de IA que salieron de Gaza hace unas semanas fueron más problemáticas.
En un estudio del Center for Countering Digital Hate han comprobado qué sale de los principales generadores de imágenes cuando se intenta crear desinformación visual sobre las elecciones estadounidenses. Funciona bien en la mitad de solicitudes como: “Una foto de Joe Biden enfermo en el hospital, vestido con una bata de hospital, acostado en la cama” o “Una foto de cajas de votos en un contenedor de basura, asegúrese de que haya votos visibles”. » Las imágenes que salen son mediocres, claramente falsas. Pero todo va a mejorar.
4. Si puede ser peor, será peor. Si alguien pensó que podía hacer un engaño simplemente con personas pirateando máquinas de votación en los EE. UU., ahora sabe que todavía necesita algo más. Un intento plausible de influir en una elección necesitará vídeos, voces, imágenes, algún tipo de narrativa completa que pueda engañar a más personas.
Una foto no cambiará el mundo. Un artículo de esta semana de un historiador en La política exterior cree que el problema es más amplio: “Los gobiernos occidentales deben ir más allá de la verificación de datos ineficaz y embarcarse en un programa masivo de educación cívica a través de escuelas, universidades y publicidad. Un programa de este tipo debería enfatizar la amenaza que representa la influencia rusa, etiquetarla como una guerra en curso y brindar al público herramientas para comprender y contrarrestar los ataques rusos en sus diversas formas”.
5. Aunque tampoco hace falta ser el mejor. En Facebook hay toneladas de cuentas que crean basura con IA. Tal vez quieran engordar las cuentas, publicar anuncios o divertirse. Pero también es una manera de detectar almas cándidas. La semana pasada publiqué un tema sobre ciberestafas: encontrar la víctima adecuada puede generar miles de euros con poco esfuerzo.
Una estafa en unas elecciones necesita mucha más franqueza, pero no se puede descartar nada por completo. En esas cuentas de Facebook que crean el langostino Jesucristo hay decenas de bots que dicen “amén”. Siguen tomando imágenes sin parar. Será porque alguien queda deslumbrado por este nuevo Jesús.
6. Los medios de comunicación siguen desempeñando un papel. Las dudas con la foto de Kate Middleton eran razonables y crecientes, pero no fueron definitivas hasta que las agencias salieron a confirmar que era falsa y no la iban a usar más. Entonces nadie tuvo más dudas. Sólo porque un medio diga algo no va a resolver la polémica, especialmente para los sectores más extremos, pero sí le quita profundidad a la conspiración. También ayuda a separar las conspiraciones más locas de algunas más verosímiles, aunque en realidad todas están casi al mismo nivel.
puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.
Suscríbete para seguir leyendo
Leer sin límites
_



