Doce monos muertos y un abuelo resucitado desdibujan la frontera del yo | Tecnología

Este análisis forma parte del boletín semanal de Materia, la sección de ciencia de EL PAÍS, que se envía todos los sábados. Si quieres registrarte para recibirlo completo, puedes hacerlo en este enlace.

“Siempre quise decirte que estaba muy emocionado de asistir a tu boda”. En una lección de pornografía sentimental, una voz sintética pronunció esa frase para provocar las lágrimas de una mujer que se prestó al experimento del programa. El hormiguero. Esa voz, recreada con inteligencia artificial a partir de una grabación real, simulaba la de su abuelo, fallecido justo al día siguiente de aquella boda. Algunas familias ya resucitarán a sus difuntos con sistemas similares, es un mercado emergente en torno al duelo, pero no dejan constancia de su reacción espontánea para retransmitirlo por televisión. hora estelar.

Hace una década, la inteligencia artificial era algo académico, no la punta de lanza de la geopolítica, el tecnocapitalismo y el programa de Pablo Motos. En ese momento, Google lanzó uno de los mayores esfuerzos en ese campo: alimentó un cerebro de silicio compuesto por 16.000 procesadores con millones de vídeos de YouTube. Después de todo ese enorme esfuerzo, surgió un patrón: los gatitos. La máquina aprendió a reconocer qué era un gato. “¿Cuántos gatos necesita ver un niño para entender qué es un gato? Uno. No tenemos idea de cómo lo hace, pero con un solo ejemplo ya puedes reconocerlos”, me dijo hace años Ramón López de Mántaras, experto del CSIC en este campo.

Sam, 18 meses, durante el experimento.Wai Keen Vong

Ahora un experimento publicado en Ciencia Se abre una puerta inquietante: alimentaron una máquina con las experiencias del pequeño Sam, quien usó un casco con cámara entre los 6 y 25 meses. Este programa ha comprendido cómo un niño adquiere la palabra “gato” gracias al cruce de estímulos visuales y verbales de su entorno. Y pretende reproducir ese aprendizaje, sin millones de visionados, sólo con las mismas experiencias que un niño que se asoma al mundo en sus primeros pasos.

Ampliemos el experimento. Esa máquina que ha aprendido con Sam podría aprender mucho más si siguiera registrando su vida, lo que ve, lo que oye, lo que dice y lo que hace. De la misma manera que hicieron hablar al abuelo muerto, se podría recrear a un Sam mucho más sofisticado, con todas sus vivencias, con todos sus patrones de voz, pero también de comportamiento, capaz de representarlo. Llevamos el móvil encima constantemente y pronto serán dispositivos que también graben imágenes, como broches y gafas. Eso ya está en el mercado y, mientras tanto, la inteligencia artificial conversacional, chatgepetés, ya son capaces de desempeñar papeles cada vez más específicos. No es difícil imaginar que así tendremos cada uno un avatar que hable por nosotros: charlará con el tuyo para ver cuándo podemos reunirnos, con mi jefe para pedir un día libre y le preguntará a la persona de mi madre cómo está. está haciendo con el nuevo medicamento.

Sherry Turkle, experta en nuestra relación con la tecnología, lleva décadas alertando sobre cómo perdemos empatía al introducir intermediarios con pantallas y alejarnos de la conversación real. Ya no llamamos a nuestros amigos, les damos un como; Seguimos su vida en su cuentos, como hacemos con los personajes famosos; No tomamos café, los dejamos vistos por WhatsApp. En su libro de 2015 En defensa de la conversación (Attic), ya advertía de que tratamos a las máquinas casi como si fueran humanos y a las personas casi como máquinas, a lo que “le ponemos pausa en medio de una conversación para mirar nuestros teléfonos”. Como no prestamos atención al 100% debido a los teléfonos móviles, «interactuar con las máquinas no parece una gran pérdida». Anteriormente había escrito: “La tecnología cataliza cambios no sólo en lo que hacemos, sino también en cómo pensamos”. Lo publicó en 1984 en un libro llamado el segundo yo.

Elon Musk en la presentación de su máquina de implantes cerebrales.Neuralink (AFP)

Hace 40 años no se podía imaginar la profundidad del cambio que estamos presenciando. El martes, Elon Musk anunció un nuevo paso en su camino hacia el iPhone cerebral. Su empresa, Neuralink, ha implantado un chip en la materia gris de un paciente. Ni siquiera es el primero en hacerlo: muchos ya han sido implantados y se utilizan para tratar experimentalmente el Parkinson, la epilepsia, para mejorar el habla o la cognición. Un hombre completamente inmovilizado por ELA, que nunca había hablado con su hijo de cuatro años, pudo proponerle ver juntos una película de Disney gracias a esta neurotecnología. Pero el tuit de Musk (es toda la información que tenemos) generó mucho revuelo: porque sabemos que el tamaño de sus ambiciones sólo son comparables a las de su diarrea verbal.

A Musk no le gusta esperar a que el semáforo se ponga en verde: Neuralink ha llevado a cabo el implante cuando tiene sobre la mesa una denuncia por la muerte de doce monos en la fase experimental de esos chips. Su primer producto, llamado Telepatía, está diseñado para permitir a las personas con discapacidad controlar dispositivos a través del pensamiento. Pero su ambición abarca una integración profunda entre los cerebros humanos y la inteligencia artificial, conectándonos a máquinas para mejorar nuestras capacidades cognitivas, accediendo a información instantáneamente y comunicándonos a través del pensamiento. Ampliar los límites de la experiencia humana.

¿Pondríamos nuestro cerebro en manos de Musk? La trayectoria de cualquier tecnología emergente siempre se inclina hacia el dinero. La inteligencia artificial ya está en manos del tecnocapitalismo, más preocupado de que perdamos tiempo usando sus productos que de mejorar la humanidad. De las 30 empresas de neurotecnología más grandes del mundo, todas menos una optan por compartir nuestros datos cerebrales con otras empresas.

Precisamente por eso, neurocientíficos como Rafael Yuste, de la Universidad de Columbia, llevan años promoviendo la promulgación de los neuroderechos: porque saben que con implantes como el de Musk se puede, ya hoy, leer pensamientos, modificar comportamientos, alterar la percepción. “Tenemos una responsabilidad histórica. “Estamos en un momento en el que podemos decidir qué tipo de humanidad queremos”, me aseguró al lanzar su campaña. Hoy, me cuenta por videollamada, sigue intentando que los países lo legislen “más allá de las declaraciones de intenciones”, como la que impulsa España en la UE.

Todas estas noticias demuestran que la tecnología extenderá nuestros pensamientos y personalidad más allá de nuestro entorno, más allá de nuestra vida e incluso más allá de nuestra voluntad. ¿Querían los abuelos fallecidos ir a divertirse? El hormiguero? ¿Los avatares crecerán con los bebés del futuro? ¿Alguien pensó en las mujeres desnudas y pornificadodesde Taylor Swift hasta Almendralejo, desarrollando aquellos aplicaciones?

puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.

Suscríbete para seguir leyendo

Leer sin límites

_


Entrada siguiente

Grabaciones de la vida de un bebé de un año entrenan a una IA para aprender palabras | Tecnología

Mar Feb 6 , 2024
Desde el nacimiento, los bebés comienzan a recibir estímulos visuales y auditivos, imprescindibles para aprender algo imprescindible en su vida: el lenguaje. Entre los seis y los nueve meses comienzan a hablar, asociando sonidos con objetos y conceptos del mundo real. Cuando cumplen dos años, suelen tener un vocabulario de […]
Grabaciones de la vida de un bebé de un año entrenan a una IA para aprender palabras |  Tecnología

Puede que te guste

Chief Editor

Johny Watshon

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur

Quick Links