Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas propias de la inteligencia humana, como razonamiento, aprendizaje (aprendizaje automático), percibir, comprender el lenguaje natural y resolver problemas. Ya está presente en todos los ámbitos de nuestra vida, desde las habituales aplicaciones para comprar o ver películas hasta el desarrollo de nuevas fórmulas farmacéuticas o la organización de los procesos productivos. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en áreas tan diversas como la medicina, la industria, la robótica o los servicios financieros. La ley europea de IA comienza a aplicarse de forma paulatina con el objetivo de garantizar su desarrollo con criterios éticos y legales. Estas son 10 respuestas a las dudas que genera una iniciativa pionera en el mundo:
¿Por qué Europa lo regula?
La inteligencia artificial proporciona beneficios sociales, promueve el crecimiento económico y mejora la innovación y la competitividad. Estas aplicaciones generalmente presentan poco o ningún riesgo. Pero otros pueden generar situaciones contrarias a los derechos y libertades, como el uso de inteligencia artificial para generar imágenes pornográficas no deseadas o el uso de datos biométricos para categorizar a las personas por características de su apariencia o su aplicación en la contratación, la educación, la atención sanitaria o la vigilancia policial predictiva.
¿Cuáles son las categorías de riesgo?
Riesgo mínimo: la mayoría de los sistemas entran en esta categoría. Para estas aplicaciones, el proveedor podrá adoptar voluntariamente requisitos éticos y adherirse a códigos de conducta. La IA de propósito general se considera IA entrenada con una potencia informática de 10²⁵ operaciones de punto flotante por segundo (FLOPS). FLOPS es la medida del rendimiento de una computadora y la Comisión considera la dimensión antes mencionada como el umbral de posibles riesgos sistémicos. La UE considera que ChatGPT-4, de OpenAI, y Gemini, de Google DeepMind, podrían estar en este umbral, que puede revisarse mediante un acto delegado.
Alto riesgo: Son los modelos que potencialmente pueden afectar la seguridad de las personas o sus derechos. La lista está abierta a revisión permanente, pero la norma ya prevé áreas de aplicación incluidas en esta categoría, como las infraestructuras críticas de comunicaciones y suministro, la educación, la gestión de personal o el acceso a servicios esenciales.
Riesgo inaceptable: Los sistemas incluidos en esta categoría están prohibidos porque violan derechos fundamentales. Esta lista incluye aquellos para clasificación o puntuación social, aquellos que se aprovechan de la vulnerabilidad de las personas y aquellos para identificar raza, opinión, creencia, orientación sexual o reacción emocional. Se prevén excepciones para su uso policial para perseguir 16 delitos específicos relacionados con la desaparición de personas, secuestros, trata y explotación sexual, prevención de amenazas a la vida o la seguridad o respuesta a la amenaza actual o previsible de un ataque terrorista. . En casos de urgencia se podrá autorizar un uso excepcional, pero si se deniega, se deberán suprimir todos los datos e información. En circunstancias que no sean urgentes, debe ir precedido de una evaluación previa de las implicaciones desde la perspectiva de los derechos fundamentales y debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad de protección de datos.
Riesgo específico para la transparencia: Se refiere a los peligros de manipulación que generan los bulos que parecen reales (deepfakes) o con aplicaciones conversacionales. La norma exige que quede claramente claro que el usuario está ante una creación artificial o que está interactuando con una máquina.
Riesgo sistémico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede causar daños masivos o de gran alcance, como en el caso de ciberataques o la difusión de un engaño o sesgo financiero.
¿Quién debe someterse a la ley?
Todos los agentes, tanto públicos como privados, que utilicen sistemas de inteligencia artificial dentro de la UE deben cumplir con la ley, sean europeos o no. Afecta a los proveedores de programas, a quienes los aplican y a quienes los compran. Todos deben asegurarse de que su sistema sea seguro y cumpla con la ley. En el caso de sistemas de alto riesgo, antes y después de su comercialización o puesta en servicio, los sistemas deben someterse a una evaluación de conformidad para garantizar la calidad de los datos, la trazabilidad, la transparencia, la supervisión humana, la precisión, la ciberseguridad y la solidez. . Esta evaluación deberá repetirse si se modifica sustancialmente el sistema o su finalidad. Los sistemas de inteligencia artificial de alto riesgo utilizados por las autoridades o entidades que actúan en su nombre también deben registrarse en una base de datos pública de la UE, a menos que dichos sistemas se utilicen con fines policiales y migratorios. Los proveedores de modelos con riesgos sistémicos (potencia de cálculo superior a 10²⁵ FLOPS) tienen la obligación de evaluarlos y mitigarlos, informar de incidentes graves, realizar pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y proporcionar información sobre el consumo energético de sus Modelos.
¿Qué debe incluir una evaluación de la conformidad?
Los procesos, el período y frecuencia de uso, las categorías de personas y grupos afectados, los riesgos específicos, las medidas de vigilancia humana y el plan de acción en caso de que los riesgos se materialicen.
¿Cómo sabe un proveedor los efectos de su producto?
Las grandes corporaciones ya cuentan con sus propios sistemas para adaptarse al estándar. Para las entidades más pequeñas y aquellas que utilizan sistemas de código abierto, la ley crea espacios controlados de prueba y ensayo en condiciones reales, que proporcionan un entorno controlado para probar tecnologías innovadoras durante seis meses, ampliables a otros tantos. Pueden estar sujetos a inspecciones.
¿Quién está exento?
Los proveedores de modelos gratuitos y de código abierto están exentos de obligaciones de comercialización, pero no de obligaciones de evitación de riesgos. La norma tampoco afecta las actividades de investigación, desarrollo y creación de prototipos o desarrollos destinados a usos de defensa o seguridad nacional. Los sistemas de IA de uso general deberán cumplir requisitos de transparencia, como la producción de documentación técnica, el cumplimiento de la ley de derechos de autor de la UE y la difusión de resúmenes detallados del contenido utilizado para la capacitación del sistema.
¿Quién supervisa el cumplimiento?
Se crean una Oficina Europea de Inteligencia Artificial, un panel asesor científico y autoridades nacionales de vigilancia para monitorear los sistemas y autorizar las aplicaciones. Las agencias y oficinas de IA deben tener acceso a la información necesaria para cumplir con sus obligaciones.
¿Cuándo será plenamente aplicable la Ley de IA?
Tras su adopción, la Ley de IA entra en vigor 20 días después de su publicación y será plenamente aplicable en 24 meses, de forma gradual. En los primeros seis meses, los Estados miembros deben eliminar los sistemas prohibidos. Dentro de un año, se impondrán obligaciones de gobernanza para la IA de uso general. En dos años, todos los sistemas de alto riesgo deberán ser adecuados.
¿Cuáles son las sanciones por infracciones?
Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos del Reglamento, los Estados miembros deben establecer sanciones efectivas, proporcionadas y disuasorias para las infracciones y notificarlas a la Comisión. Multas de hasta 35 millones de euros o el 7% de la facturación mundial anual del ejercicio anterior, hasta 15 millones de euros o el 3% de la facturación y hasta 7,5 millones de euros o el 1,5% del volumen de negocio. En cada categoría de infracción, el umbral sería el menor de los dos importes para las PYME y el mayor para otras empresas.
¿Qué puede hacer la víctima de una infracción?
La Ley de IA establece el derecho a presentar una queja ante una autoridad nacional y facilita que las personas puedan reclamar compensación por los daños causados por sistemas de inteligencia artificial de alto riesgo.
puedes seguir EL PAÍS Tecnología en Facebook y X o regístrate aquí para recibir nuestra boletín semanal.
Suscríbete para seguir leyendo
Leer sin límites
_



