Marc Serramià: “Si todos confiamos en herramientas como ChatGPT, el conocimiento humano desaparecerá” | Tecnología

A Marc Serramià (Barcelona, ​​30 años) le preocupa que la vertiginosa irrupción de la inteligencia artificial (IA) en nuestras vidas no vaya acompañada de un debate serio sobre los riesgos que entraña esta tecnología. Ante los dilemas éticos que plantea, Serramià ha decidido centrar su investigación en el desarrollo de técnicas “para controlar que el comportamiento de estos sistemas sea coherente con los valores humanos y las normas sociales”. Su trabajo le valió el Premio de la Sociedad Española de Informática y de la Fundación BBVA, que cada año premia a los jóvenes investigadores que firman tesis doctorales innovadoras.

El catalán compara su trabajo en el campo de la IA con el establecimiento de estándares de comportamiento de la sociedad en la regulación del tráfico. “Tenemos límites de velocidad en la carretera porque valoramos más la vida de los conductores que el hecho de llegar rápido a nuestro destino”, afirma este doctor en Ingeniería (con especialidad en inteligencia artificial) por la Universidad de Barcelona, ​​actualmente catedrático en el Departamento de Ciencias de la Computación de la City University de Londres.

Preguntar. Algunos expertos dicen que los riesgos de la IA deberían tomarse tan en serio como la emergencia climática. ¿Qué opinas?

Respuesta. Estoy de acuerdo. Un buen ejemplo son los medicamentos. Para poner un medicamento en el mercado, no sólo se debe demostrar que tiene un efecto primario positivo, sino que los efectos secundarios no deben ser peores que el efecto primario. ¿Por qué no ocurre lo mismo con la IA? Cuando diseñamos un algoritmo, sabemos que la función principal hará que se vea bien, pero no si tendrá efectos secundarios. Creo que en el caso de las medicinas o las armas lo vemos muy claro, pero con la IA no tanto.

P. ¿De qué peligros estamos hablando?

r. Hay muchos. Uno de ellos, en el que centro parte de mi investigación, es la privacidad. Incluso si anonimizamos los datos, siempre es posible realizar ingeniería inversa e inferir cosas sobre usted para ofrecerle publicidad personalizada, otorgarle préstamos bancarios o no, o para que un posible empleador juzgue si usted es el perfil que está buscando. Nuestro trabajo sugiere esto: dado que utilizamos algoritmos para estudiarte, ¿por qué no usarlos también para cosas buenas, como conocer tus preferencias de privacidad? En otras palabras, si te digo que no quiero que compartas mi ubicación, no me vuelvas a preguntar. Lo que hemos propuesto es que una IA pueda aprender del usuario y pueda actuar como representante en este proceso y definir sus preferencias prediciéndolas a partir de la información que tiene sobre él. Creamos una herramienta de inteligencia artificial muy simple y, sin embargo, nuestros datos muestran que fue capaz de predecir las preferencias reales del usuario con buena confiabilidad.

Serramià obtuvo en octubre uno de los seis premios que la Sociedad Española de Informática y la Fundación BBVA conceden a jóvenes investigadores prometedores.Jaime Villanueva

P. ¿Qué otros problemas destacarías más allá de la privacidad?

r. Los altavoces inteligentes, como Alexa, se lanzaron al mercado muy rápidamente, pero están fracasando. Por ejemplo, enviar conversaciones sensibles a contactos con los que no deseas compartir información. Menos cotidiano, pero seguramente más trascendente, es el peligro que suponen las armas autónomas.

P. ¿Hasta qué punto deberíamos temer a las armas autónomas?

r. Están muy avanzados a nivel de producción. Mi directora de tesis participó en una conferencia en las Naciones Unidas sobre este tema y el discurso mayoritario que vio entre los políticos y militares allí presentes fue: bueno, no los queremos, pero si no los desarrollamos, otro país los desarrollará. . El equilibrio es muy complicado. Siempre habrá alguien dispuesto, y eso arrastrará a otros.

P. Cuando hablamos de armas autónomas, ¿nos referimos a drones?

r. De momento creo que es el más extendido, sí. En el futuro podremos hablar de robots humanoides armados. Actualmente se están utilizando drones con explosivos en la guerra en Ucrania y Rusia. Pero también puedes darles armas para disparar.

Hay que frenar el desarrollo de armas autónomas con capacidad de decisión, porque estamos creando cosas que no sabemos cómo funcionan ni qué efectos pueden tener.

P. ¿Hay alguna manera de detener eso? ¿O es inevitable la automatización de la guerra?

r. Lo que recomendamos es intentar frenar o ralentizar el desarrollo de armas autónomas con capacidad de decisión, porque en realidad estamos creando cosas que no sabemos cómo funcionan ni qué efectos pueden tener. Y esto es muy peligroso. El problema es que las empresas saben que si ellas no lo hacen, otras lo harán, y al final se crea una especie de competencia. Sería bueno que hubiera algún tipo de certificación en este ámbito. Debes empezar por productos de consumo, como los altavoces inteligentes: si vas a una tienda y ves uno que está certificado, pues detrás hay un estudio ético que asegura que respeta la privacidad, es probable que compres ese. y no otro.

P. ¿Existe realmente la inteligencia artificial ética?

r. Sí, aunque no es muy visible. Es un terreno nuevo: la primera Conferencia Internacional sobre Inteligencia Artificial Ética fue en 2018. Un tema en el que estoy trabajando es el uso de IA para mejorar los procesos de presupuestación participativa, como Decidim Barcelona. Uno de los problemas que tienen es que participa poca gente, y se ha estudiado que generalmente las clases más desfavorecidas votan menos. Por tanto, esto implica sesgos en la selección de proyectos. Les hicimos un algoritmo que podría implementar el sistema de valores de las personas que no participan, ya sea porque no pueden o porque no quieren, de una manera que tuviera en cuenta sus sensibilidades. El objetivo es minimizar los posibles sesgos que puedan surgir de decisiones votadas sólo por unos pocos. Lo interesante es que en nuestros experimentos hemos visto que podemos encontrar un buen equilibrio en el que los participantes están satisfechos y que también representa a los que no participaron.

P. ¿Es posible codificar algoritmos para que sean éticos?

r. A nivel teórico, sí. Mi investigación se limita a ese plano, me centro en los sistemas multiagente (varios sistemas inteligentes que interactúan entre sí). La idea es pensar en cómo diseñar el mañana, cuando la IA lo rodee todo, un sistema de estándares que asegure que los sistemas estarán alineados con nuestros valores. Luego hay otra investigación sobre cómo trasladamos esto a un nivel práctico, pero no entraríamos en ello aquí.

P. ¿Y cómo se puede hacer?

r. La inteligencia artificial puede verse como una fórmula matemática que intenta cambiar el estado del mundo para intentar maximizar esa fórmula. Aunque parece tener un comportamiento inteligente, no deja de ser un mecanismo de optimización. Puedes poner reglas en el código, o también modificar esa fórmula matemática para penalizar cuando se incumpla la regla. Simplemente querrás hacerlo bien, elegirás cualquier cosa que te ayude a alcanzar el objetivo de diseño de ese sistema, pero no sabes lo que estás haciendo.

A nivel teórico, es posible codificar algoritmos para que sean éticos.

P. Pero esos algoritmos los utiliza alguien que puede eludir esas reglas.

r. Por supuesto, al final la inteligencia es tan ética como quien la utiliza. Pero nuestra investigación se centra en ver cómo podemos crear algoritmos libres de sesgos. Es un trabajo teórico para un futuro en el que imaginamos que conviviremos con sistemas sofisticados de IA.

P. ¿Qué opinas de la IA generativa, la que está detrás de ChatGPT o Gemini? ¿Qué problemas éticos plantea?

r. Se centran más en explicar lo que se genera, o en el hecho de que no se puede asegurar que lo que se genera tenga sentido. El algoritmo no entiende nada, lo único que hace es encontrar cosas similares a lo que le has mostrado, las junta y genera algo. El término aprendizaje automático puede resultar engañoso, porque la máquina no ha aprendido ni comprendido nada. Tiene una fórmula matemática sofisticada que está modificada, de modo que si le pides que te dé una ilustración de un gato, buscará una ilustración de un gato, pero no entiende qué es un gato.

P. No se ha medido el efecto que estas herramientas pueden tener en determinados perfiles. Una persona se suicidó tras semanas de conversación con un chatbot inteligente que le animó a dar ese paso.

r. Hay varias cosas aquí. La primera es que hay un problema de ignorancia: la gente no sabe cómo funcionan estos sistemas. No importa cuán humano sea el texto que produce, solo arroja resultados probables. No es nada inteligente, y menos emocional, aunque puede dar esa impresión. También hay un problema en el campo de la educación. Ya no se trata solo de que los estudiantes utilicen ChatGPT para hacer sus tareas, sino que si todos confiamos en este tipo de herramientas el conocimiento humano desaparecerá. El algoritmo cometerá un error y nadie sabrá que lo hizo. Y ya se ha visto que muchos modelos inventan respuestas. En los paquetes de tabaco dice que fumar mata. Lo mismo debería ocurrir con la IA.

¿Es suficiente con poner un mensaje que diga ‘generado por IA’? La gente pregunta a ChatGPT por qué partido votar en las próximas elecciones o qué medicamento tomar

P. Se refiere a un tipo de sello o certificación.

r. Exacto. La industria ha crecido rápidamente y los gobiernos siempre son más lentos. Estamos en ese momento en el que hay mucho desarrollo y poca certificación y regulación. Creo que al final esto se arreglará e incluso seremos mejores. Pero ahora es un momento peligroso.

P. ¿Qué opinas del reglamento europeo sobre IA?

r. Me parece un buen primer paso. En cualquier caso, quizás hayamos sido demasiado permisivos con la IA generativa. Por ejemplo, ChatGPT y otras herramientas similares son modelos de lenguaje. Su virtud es escribir texto que parezca humano, no escribir texto real. Sin embargo, las empresas nos los venden como tales. ¿Podemos estar seguros de que poner un mensaje que diga “generado por IA” es suficiente? Increíblemente, la gente le pregunta a ChatGPT cosas como por qué partido deberían votar en las próximas elecciones, si deberían contratar a una determinada persona o qué medicamentos tomar si tienen tales síntomas. Y no hablemos de preguntas como “no quiero vivir, ¿qué debo hacer?” Creo que se debería exigir más a la IA generativa. Hay temas de los que no se puede hablar y otros de los que, si se puede, habría que exigir garantías. Gran parte del debate hasta ahora se ha centrado en los derechos de autor, que también son muy importantes, pero este otro debate también me parece crucial.

P. ¿Deberíamos temerle a la IA?

r. No, creo que deberíamos tenerle respeto. Y deberíamos exigir como ciudadanos que los gobiernos se pongan a trabajar y regulen esto bien. Nosotros, los consumidores, no debemos utilizar productos o servicios que creamos que no cumplen con ciertos estándares. Si todos nos comportamos así obligaremos a la industria a optar por opciones más éticas.

puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.

Suscríbete para seguir leyendo

Leer sin límites

_


Entrada siguiente

Paneles solares enCosta Rica: aumenta la eficiencia energética de tu hogar

Mar Mar 12 , 2024
En Costa Rica, la incorporación de paneles solares se ha establecido como una alternativa fundamental para aquellos que desean disminuir sus gastos en energía y mitigar su huella ecológica. Ante el auge del interés en fuentes de energía renovables, tanto residencias como empresas han empezado a evaluar la posibilidad de […]
Paneles solares enCosta Rica: aumenta la eficiencia energética de tu hogar

Puede que te guste

Chief Editor

Johny Watshon

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur

Quick Links