HereAfter AI: Hablando con los que ya no están: el riesgo de resucitar muertos con inteligencia artificial | Tecnología

Entre lágrimas, luego de escuchar a sus familiares fallecidos, varias mujeres confesaron su asombro ante la Espectáculo televisión El hormiguero (Antena 3). “Se sentía súper real y lo necesitaba, realmente lo necesitaba”, sollozó una joven frente a las cámaras. “La voz es increíble, muy contenta con la experiencia”, añadió otra mujer, secándose las lágrimas del rostro. El programa de Pablo Motos había aprovechado la inteligencia artificial para recrear, a partir de audio real, las voces de los muertos. No sólo lo reprodujeron, algo muy sencillo de hacer y que ha provocado problemas de desinformación por el uso de estos deepfakes con la voz de Joe Biden o el líder del Partido Laborista británico, Keir Starmer. Los audios generados plantearon preguntas que sugirieron a los participantes: «¿Nos quedaba alguna conversación?» — en esta “experiencia real”, como la denomina el programa, que se ha sumergido en hora estelar en un mercado emergente, el de recrear fallecidos con inteligencia artificial (IA). Los psicólogos advierten que puede interferir en la adaptación natural al duelo y cronificar las fases más dolorosas.

La muerte de alguien cercano es como perder una parte de ti mismo. Es el origen de varias dificultades en el bienestar emocional y muchos estarían dispuestos a hacer cualquier cosa para aliviar ese sentimiento de pérdida abrumadora. Incluso habla cara a cara con ese ser querido, si es posible. Suena a ciencia ficción, pero empresas como HereAfter, StoryFile y Replika lo están haciendo y no es nada sobrenatural. Utilizando entrevistas y otros contenidos, crean versiones digitales de personas fallecidas para interactuar con los vivos, ya sea a través de chat, voz o video. En China, este negocio ya está creciendo, y varias empresas afirman haber creado miles de estas personas digitales o robots fantasma. Algunos incluso afirman que pueden hacerlo con apenas 30 segundos de grabación audiovisual del fallecido.

El American StoryFile entrevista a personas a lo largo de su vida a través de vídeo, planteando una serie de preguntas sobre experiencias clave, como su infancia, su boda o su mayor reto, junto con otras que el entrevistado decide añadir. A partir de las respuestas y con el uso de inteligencia artificial se genera un vídeo conversacional con el que niños, padres, amigos y familiares podrán interactuar en el futuro. Según indican, aproximadamente 5.000 personas ya han creado perfiles en la plataforma. El coste del servicio varía entre 40 y 450 euros, dependiendo del número de preguntas que desees incluir. También ofrecen una prueba gratuita.

Stephen Smith, cofundador de StoryFile, explica que la empresa nació hace una década con el objetivo de preservar la memoria de los supervivientes del Holocausto. Pero fue a finales de 2021 que la plataforma pasó a ser lo que es hoy, donde cualquiera puede grabar vídeos con una webcam desde casa o en un estudio.

El cofundador subraya que la plataforma no inventa contenidos, sino que “recupera algo que estaba pregrabado”, ya existente. Pero es posible ir más allá y añadir información de otros formatos. “Lo hemos hecho utilizando la metodología de archivo conversacional. Significa usar contenido de la vida de la persona, como un video donde podemos clonar la voz y luego hacer que diga cosas que dijo en su vida. Por ejemplo, podría utilizar un correo electrónico y luego pedir que se lo lean. Si alguien quiere que eso suceda, es posible”, dice a EL PAÍS por videoconferencia.

El peligro de engancharse

Quizás lo más inquietante es que algunas personas podrían volverse dependientes o incluso adictas a hablar con avatares virtuales, porque generan una falsa sensación de cercanía con los muertos, como mostró el programa de Antena 3. Las mujeres que se ofrecieron como voluntarias le hablaban directamente a la voz ―“Te diría…”, “Te extraño”― como si esa recreación sintética fuera su abuela fallecida un año antes.

“Al principio hay alivio. Pero luego surge una adicción, una dependencia”, advierte José González, psicólogo especializado en procesos de duelo. “Si la IA reproduce literalmente cómo era uno, existe un gran peligro de cronificación, sobre todo en vínculos muy intensos. Es fácil caer en esa fantasía de que no está muerto. Puede provocar ese congelamiento en la fase de negación”, continúa.

El experto, que ha trabajado con más de 20.000 personas en duelo a lo largo de 25 años, coincide en que los vídeos conversacionales pueden ser útiles para mantener vivos los recuerdos, contar anécdotas o transmitir información entre generaciones con emoción. También a la hora de replicar algunas de las técnicas que se hacen en consulta para cerrar temas pendientes, que no se pudieron resolver hablando. “Hago algunas preguntas sobre el vínculo con la persona que ha fallecido, por ejemplo ‘qué es lo que más me gustó de ti’ o ‘cuándo me decepcionaste más’. Con esas respuestas, el doliente escribe una carta y la lee en una silla vacía”, describe. Según él, la IA podría aplicarse a dinámicas como esta, de manera oportuna, siempre que sea supervisada de cerca por un profesional.

González señala que también existe un riesgo asociado a lo expresado en estas grabaciones. Los mensajes de despedida pueden ser muy poderosos y ayudar a aliviar el sufrimiento porque es el momento en el que le dices a tu familia cuánto los amas, los libera de la culpa y eso hace que el duelo sea mucho más llevadero. Sin embargo, sin la supervisión de un experto, incluso las mejores intenciones podrían provocar un efecto adverso. “Imagínate que soy padre de una hija única y le digo: ‘Te dejo como objetivo vital cuidar bien de tu madre’. Puede ser muy bonito, pero también puede ser una sentencia si la persona que sería madre está muy enferma”, ejemplifica. Es en ese momento cuando un profesional recomendaría al padre hablar de otra manera para evitar la creación. de una carga emocional y si no hay supervisión, la probabilidad de malentendidos aumenta.

Un problema ético

¿Hasta qué punto puede ser fiel un avatar? ¿A quién pertenece? ¿Qué tipo de datos se pueden utilizar para su creación? Estas son sólo algunas de las preguntas que surgen en torno a este tema. Para Gry Hasselbalch, experto en ética del Consejo Europeo de Investigación, las implicaciones se extienden a una esfera existencial: “Cada tecnología que se basa en el hecho o la idea de que puede competir con los humanos plantea la cuestión de qué significa ser humano”. , cuáles son nuestros límites y si es posible utilizarlo para superar un límite”.

Hasselbalch, que también es cofundador de grupo de expertos La danesa DataEthics.eu cree que la proliferación de avatares de fallecidos representa un dilema que va más allá de los datos, el consentimiento o quién tiene los derechos. “Podría cambiar la identidad de la humanidad y del ser humano, porque cuestiona la idea misma de mortalidad”, afirma.

Entre varios problemas potenciales, el experto en ética de la IA destaca la posibilidad de una herramienta que no solo recopile el contenido de las redes sociales, correos electrónicos y mensajes móviles de una persona fallecida, sino también sus patrones de búsqueda en Internet. Esto podría revelar aficiones o intereses desconocidos de la persona, desde la pasión por un animal o un deporte hasta, en el peor de los casos, un oscuro secreto.

Si la inteligencia artificial combina esta información con otros elementos que constituyen tu identidad, pero da mayor relevancia a determinados aspectos, podría dar como resultado la creación de un avatar o robot que poco o nada se parece a cómo era esa persona en la vida real. Es un escenario en el que “se perdería el control”, advierte. Y no es el único. “¿Con qué facilidad te pueden manipular si un ser querido al que extrañas te dice que votes de cierta manera o que compres cosas específicas? No sabemos qué empresas surgirán detrás de esto”, reflexiona.

‘Deepfakes’ y ‘copyright’

Uno de los clientes de StoryFile ha sido el fallecido Sam Walton, fundador del gigante negocio Walmart. “Trabajamos con el expediente de su empresa. “Revisamos muchas horas de material, transcribimos sus discursos, sus vídeos y creamos 2.500 respuestas a preguntas que había respondido durante su vida con exactamente las mismas palabras que usaba”, describe. El resultado fue una recreación digital que tiene el rostro, la voz y un holograma de tamaño natural de Walton. ¿Puede ser muy realista? “A las personas que conocieron a Sam se les empañan los ojos por lo realista que es”, dice Alan Dranow, ejecutivo de esta empresa. La familia del empresario había dado su consentimiento para esta producción, pero la IA ha recreado los rostros y las palabras de otras celebridades sin un acuerdo común.

Es el caso del comediante estadounidense George Carlin, fallecido en 2008, y cuya voz y estilo fueron clonados para la creación de la podcast George Carlin: Me alegro de estar muerto, publicado en YouTube a principios de enero. La semana pasada, se presentó una demanda en un tribunal federal de Los Ángeles solicitando que Dudesy, la empresa detrás de ella, retirara inmediatamente el especial de audio. Su hija, Kelly Carlin, ya había criticado la producción, en la que una síntesis de la voz del artista comenta episodios de actualidad. “Mi padre pasó toda su vida perfeccionando su oficio desde su humanidad, cerebro e imaginación. Ninguna máquina reemplazará jamás su genio. Estos productos generados por IA son intentos ingeniosos de recrear una mente que nunca volverá a existir. “Dejemos que el trabajo del artista hable por sí mismo”, dijo en la plataforma.

Según StoryFile, el servicio que integra lo más avanzado en esta tecnología está dirigido únicamente a un grupo selecto. “En este momento no lo ofrecemos como producto en nuestro sitio web, sino más bien para clientes privados. No queremos que nuestra tecnología se utilice para crear una profundo de otra persona”, matiza Smith.

Sin embargo, existen alternativas que sí lo hacen. La empresa HeyGen, por ejemplo, permite generar vídeos con clonación de voz, sincronización de labios y estilos de habla. Si no se mira con atención, es casi imposible darse cuenta de que se trata de una creación artificial. Si bien la plataforma se presenta como una solución para personalizar y traducir contenidos en el mundo corporativo, en la práctica puede usarse para cualquier propósito de este tipo: despedirse de un ser querido o usarlo para generar dinero.

puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.


Entrada siguiente

Cómo evitar que la inteligencia artificial falle más a las mujeres en los diagnósticos médicos | Tecnología

Mar Feb 6 , 2024
Aburrida en un hospital de Nueva Jersey, Diane Camacho le contó a ChatGPT los síntomas que padecía y le pidió que hiciera una lista de posibles diagnósticos médicos. Tenía dificultad para respirar, dolor en el pecho y la sensación de que su corazón “se detenía y arrancaba”. El chatbot OpenAI […]
Cómo evitar que la inteligencia artificial falle más a las mujeres en los diagnósticos médicos |  Tecnología

Puede que te guste

Chief Editor

Johny Watshon

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur

Quick Links