Melanie Mitchell: “La inteligencia artificial despegará cuando se inserte en robots que experimenten el mundo como niños” | Tecnología

¿Estamos exagerando el potencial de la inteligencia artificial (IA)? ¿Qué tan inteligente es él? ¿Llegará algún día a los humanos? Estas son algunas de las preguntas que Melanie Mitchell (Los Ángeles, 55 años) se hace en su libro Inteligencia artificial. Guía para seres pensantes., que Captain Swing publica en español este lunes. Su respuesta es contundente: estamos muy lejos de crear una superinteligencia, por mucho que algunas empresas digan lo contrario. Y una de las razones fundamentales es que las máquinas no razonan como nosotros. Pueden hacer casi cualquier tarea mejor que nadie, pero entienden el mundo peor que un bebé de un año.

Mitchell proporciona un contexto fundamental para evaluar el fenómeno de la IA, una tecnología que ha estado en el debate público desde que aparecieron herramientas como ChatGPT hace dos años. Políticos, empresarios y académicos han advertido recientemente sobre los peligros de estos sistemas, que han deslumbrado al mundo con los elaborados textos que son capaces de generar y las imágenes y vídeos hiperrealistas que pueden producir.

La profesora Davis de Complejidad en el Instituto Santa Fe y profesora de la Universidad Estatal de Portland describe en su trabajo cómo funcionan los sistemas de IA más avanzados y los contrasta con el razonamiento humano. Conclusión: aspectos clave como la intuición o el conocimiento del entorno son, de momento, inalcanzables para cualquier máquina. Mitchell atiende a EL PAÍS por videollamada desde su casa en Santa Fe, Nuevo México.

PREGUNTAR. ¿De qué es capaz la IA hoy?

RESPUESTA. Hace un par de años se produjo un gran salto en sus capacidades con la llegada de la IA generativa, incluidas aplicaciones como ChatGPT o Dall-E. Pero estos sistemas, aunque lo parezca, no tienen el mismo tipo de comprensión del mundo que nosotros. Por eso a veces hacen algo extraño o inventan cosas. Carecen de fiabilidad, tienen una serie de limitaciones difíciles de predecir. Por eso creo que, si bien estos sistemas pueden ser muy útiles y los uso todo el tiempo, debemos tener cuidado con la confianza que depositamos en ellos. Especialmente si no hay supervisión humana.

P. ¿Porque?

r. Pueden cometer errores graves. Un claro ejemplo son los coches autónomos. Una de las razones por las que aún no están con nosotros es que fallan donde un humano rara vez lo haría, como no identificar a un peatón o un obstáculo. Otro ejemplo son los sistemas automáticos de reconocimiento facial. Las máquinas son extremadamente buenas para detectar rostros en imágenes, pero se ha descubierto que son peores para identificar a personas o mujeres de piel más oscura. Con ChatGPT, hemos visto innumerables casos en los que inventan lo que dicen.

La profesora Mitchell utiliza herramientas de inteligencia artificial a diario, pero reconoce sus limitaciones y siempre monitorea sus resultados.Kate Joyce

P. ¿El auge de la IA generativa ayuda o perjudica el desarrollo de la disciplina?

r. En cierto modo, esto bombo publicitario Aumenta las expectativas de la gente y eso luego provoca decepción. Ha sucedido muchas veces a lo largo de la historia de la IA. En las décadas de 1950 y 1960 se decía que en unos pocos años tendríamos máquinas con inteligencia humana. Eso no sucedió. Llegó el llamado invierno de la IA: los fondos para la investigación se agotaron y las empresas quebraron. Estamos ahora en un período de grandes expectativas. La pregunta es: ¿será realmente este el momento en que las predicciones de los optimistas se hagan realidad o acabaremos sufriendo otra gran decepción? Es difícil de predecir.

P. Hace apenas tres años, el futuro iba a ser el metaverso. Hoy ya nadie habla de eso. ¿Crees que puede pasar algo parecido con la IA?

r. Sucede todo el tiempo con las grandes innovaciones tecnológicas: hay una especie de gran burbuja publicitaria, luego las expectativas no se cumplen y la gente se decepciona, y finalmente la tecnología sale victoriosa. Ese desarrollo resulta útil, pero no tan brillante como la gente esperaba. Es probable que eso suceda con la IA.

P. Usted sostiene que los sistemas de IA carecen de comprensión semántica o de sentido común y, por lo tanto, no pueden ser verdaderamente inteligentes. ¿Crees que eso cambiará en algún momento?

r. Es posible. No hay ninguna razón por la que no podamos desarrollar una máquina así. La pregunta es, ¿cómo llegamos allí? ChatGPT ha sido capacitado con todos los libros y textos digitales disponibles, así como con todos los videos e imágenes en Internet. Pero hay cosas que tienen que ver con el sentido común y el conocimiento y que no están codificadas en el lenguaje y los datos: sólo pueden captarse a través de la experiencia. Quizás las máquinas no puedan pensar de forma más humana hasta que experimenten el mundo como lo hacemos nosotros. Hay mucho debate en la disciplina de la IA sobre esto. Sospecho que el gran salto se producirá cuando la máquina no sólo esté entrenada pasivamente en el lenguaje, sino que también experimente activamente el mundo como lo hace un niño.

La historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia suelen ser erróneas, que en realidad todo es mucho más complejo de lo que pensábamos.

P. Cuando están en forma de robot.

r. Sí. Una IA insertada en un robot podría tener el mismo tipo de educación o desarrollo que un niño. Es algo sobre lo que Alan Turing, uno de los padres de la informática, ya especulaba en los años cincuenta. Esa idea tiene más sentido ahora.

P. Describes en el libro cómo funciona la IA y lo poco que tiene que ver con nuestra forma de razonar. ¿Importa el proceso si cumple su función?

r. Depende de para qué quieras usar el sistema. El GPS de mi coche puede encontrar una ruta hacia y desde donde quiero ir. No entiende el concepto de carretera ni de tráfico, pero hace un buen trabajo. La pregunta es si realmente queremos que los sistemas interactúen de manera más general con el mundo humano. ¿Hasta qué punto tendrán que entenderlo? Hubo un caso en el que un vehículo autónomo frenó bruscamente en un momento determinado y el conductor no supo por qué. Resultó que había un cartel con un anuncio que tenía una señal de alto. ¿Puedes evitar errores como ese? Sólo cuando entiendes el mundo como lo hacemos nosotros.

P. ¿Hasta dónde crees que puede llegar la IA?

r. No veo ninguna razón por la que no podamos desarrollar máquinas con una inteligencia comparable a la de los humanos. Pero será muy difícil llegar allí, no estamos cerca de ello. En la década de 1970 se pensaba que cuando las máquinas pudieran jugar al ajedrez al nivel de un gran maestro, habrían igualado la inteligencia humana. Resultó que no fue así. Luego se decía que cuando eran capaces de traducir textos o mantener conversaciones. Tampoco ha sucedido. Toda la historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia suelen ser erróneas, que en realidad todo es mucho más complejo de lo que pensábamos. Y creo que seguirá siendo así. Vamos a aprender mucho más sobre lo que realmente significa ser inteligente.

Decir que los sistemas de IA podrían volverse locos y destruirnos es, como mínimo, una afirmación altamente improbable y especulativa.

P. Entonces habrá valido la pena.

r. Uno de los objetivos de la IA es ayudar a comprender qué entendemos por inteligencia. Y es que, al intentar implementarlo en máquinas, muchas veces nos damos cuenta de que realmente incluye muchos elementos que no habíamos considerado.

P. Algunos pioneros de la IA, como Geoffrey Hinton, creen que esta tecnología puede resultar difícil de controlar. ¿Qué opinas?

r. La IA conlleva muchos tipos de peligros. Puede utilizarse para producir desinformación y deepfakes. Existen sesgos algorítmicos, como el que mencioné en el caso del reconocimiento facial. Hinton y otros van más allá y dicen que estos sistemas podrían estropearse y destruirnos. Esta afirmación es, por decir lo menos, muy improbable y especulativa. Si desarrollamos un sistema superinteligente, dudo que no le importen nuestros valores, como si matar a todos los humanos no estuviera bien. Centrarse tanto en esta dramática idea de las amenazas existenciales a la humanidad sólo desvía la atención de cosas que son realmente importantes en estos momentos.

P. ¿Cree que, como sociedad, estamos abordando adecuadamente las amenazas que enfrentamos hoy?

r. Sí, aunque a la legislación siempre le resulta difícil seguir el ritmo de la innovación. La UE ha dado un primer paso con el Reglamento europeo sobre IA. Una de las cosas que estamos viendo en Estados Unidos son las demandas por derechos de autor. Todos estos sistemas están entrenados con enormes cantidades de texto e imágenes. Si no has pagado por su uso, ¿estamos ante una infracción de derechos de autor? La ley no es clara porque se promulgó mucho antes del desarrollo de esta tecnología. Veremos cómo se soluciona esto.

Los neurocientíficos no entienden cómo funciona el cerebro y hacen experimentos para intentar darle sentido a lo que ven. Eso es lo que está pasando ahora con la IA generativa

P. ¿Cuál es la aplicación de IA más impresionante que has visto últimamente?

r. Lo que más me entusiasma es la aplicación de estos sistemas a problemas científicos. DeepMind, por ejemplo, está trabajando en el uso de IA para predecir la estructura de las proteínas. También se está utilizando para desarrollar nuevos materiales y medicamentos. Estamos en una especie de nueva era de la ciencia, quizás tan importante como la inaugurada con la llegada de las computadoras.

P. Dice en el libro que quienes calibran los sistemas de aprendizaje profundo, la técnica de inteligencia artificial más avanzada, parecen más alquimistas que científicos, porque ajustan parámetros en las máquinas sin saber exactamente lo que están haciendo.

r. Poco después de escribir el libro, la gente empezó a hablar de ingenieros de ingeniería. indicaciones (las instrucciones dadas por las herramientas de IA generativa). Su trabajo es intentar que el sistema funcione lo mejor posible. Resulta que hay gente que está ganando mucho dinero haciendo ese trabajo. Y es pura alquimia, no hay ninguna ciencia detrás. Sólo se trata de probar cosas. Algunos funcionan y otros no, y no tenemos idea de por qué.

P. Es irónico que quienes intentan optimizar una de las tecnologías más sofisticadas de la historia de la humanidad lo hagan a ciegas.

r. Estos sistemas son, en cierto sentido, cajas negras. Son sistemas de software Unos enormemente complejos que no han sido programados explícitamente para hacer cosas, pero han sido entrenados, aprendidos de los datos y nadie puede entender por qué funcionan como lo hacen. Los neurocientíficos tampoco entienden cómo funciona el cerebro y hacen experimentos para tratar de encontrarle sentido a lo que ven. Eso es lo que está pasando ahora con la IA generativa.

puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.

Suscríbete para seguir leyendo

Leer sin límites

_


Entrada siguiente

Bernardo Moreno León: Redwings, la opción destacada en el sector de la aviación para cumplir con las necesidades del mercado

Sáb Mar 30 , 2024
El transporte por avión se ha convertido en una necesidad primordial en la sociedad actual. Ya sea para viajes de negocios, turismo o emergencias, las compañías aéreas desempeñan un papel crucial en una sociedad globalizada e interconectada. En México, una de las empresas líderes en este sector estratégico es Redwings. […]
Bernardo Moreno León: Redwings, la opción destacada en el sector de la aviación para cumplir con las necesidades del mercado

Puede que te guste

Chief Editor

Johny Watshon

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur

Quick Links