Regulación de la Inteligencia Artificial

La inteligencia artificial (IA), de la que ya hemos hablado en artículo anterior, se ha integrado profundamente en varios aspectos de nuestras vidas, desde sistemas de recomendación personalizados hasta tecnologías avanzadas en medicina y transporte. Sin embargo, este rápido avance tecnológico plantea desafíos únicos en términos de regulación y ética. En este artículo, exploraremos la importancia de la la regulación de la Inteligencia Artificial  y las estrategias que los gobiernos y organizaciones europeas, pueden adoptar para garantizar su uso responsable.

De camino a la Ley de Inteligencia Artificial (EU AI Act)

La regulación de la inteligencia artificial es un campo en constante evolución que requiere un enfoque equilibrado que promueva la innovación y, al mismo tiempo, proteja los intereses públicos. Un futuro tecnológico seguro y ético depende de la colaboración global y una visión compartida entre reguladores, desarrolladores de IA y la sociedad.

La Unión Europea (UE) lleva años trabajando en una regulación de la inteligencia artificial (IA), pretendiendo prohibir los usos más peligrosos de esta tecnología. En abril de 2021, la Comisión propuso el primer marco regulador de la UE para la IA, este propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro, que veremos más adelante, implicarán una mayor o menor regulación.
A día de hoy esta regulación se encuentra en la última fase del proceso legislativo y una vez aprobada será la primera regulación de la IA. Esta debe aprobarse próximamente, aunque aún se necesita un acuerdo entre las partes para que salga a la luz la ley. La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. A su vez, esos sistemas deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales. El Parlamento también quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA y además quiere establecer y clasificar el riesgo que supongan para los usuarios, dependiendo de este una mayor o menor regulación.

Normas diferentes según los diferentes niveles de riesgo.

En el anterior enfoque, de mayor o menor regulación dependiendo del riesgo, busca equilibrar la promoción de la innovación con la protección de los ciudadanos y sus derechos. Enumeremos esos niveles de riesgo :

  • Riesgo Inaceptable: Este es el nivel más alto de riesgo. Ciertas prácticas de IA se consideran una clara amenaza para la seguridad, los medios de vida y los derechos de las personas y, por lo tanto, están prohibidas. Esto incluye, por ejemplo, sistemas de IA que manipulan el comportamiento humano para eludir el libre albedrío de las personas (como los juguetes que utilizan asistencia por voz para incentivar comportamientos peligrosos en menores) y sistemas que permiten una ‘vigilancia social puntuada’ por parte de gobiernos.
  • Alto Riesgo: Los sistemas de IA que se utilizan en áreas críticas, como la salud, el transporte, la energía y partes de la administración pública, se clasifican como de alto riesgo. Estos sistemas deben cumplir con requisitos estrictos antes de su despliegue, como ser adecuados para el propósito, garantizar la transparencia y la trazabilidad de los resultados, y asegurar la supervisión humana. Ejemplos más concretos que podríamos incluir en este nivel de riesgo podrían ser la IA en diagnósticos médicos, sistemas de crédito que determinan la solvencia financiera, o algoritmos de contratación de personal, sistemas de IA que supongan un daño significativo para la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. También aquellos sistemas utilizados para influir en los votantes y en el resultado de las elecciones, así como en los sistemas de recomendación utilizados por las plataformas de medios sociales
  • IA generativa: como por ejemplo ChatGPT, instrumentos como estos tendrían que cumplir requisitos de transparencia, revelando que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.
  • Riesgo Limitado: En esta categoría, se pide a los proveedores de IA que garanticen la transparencia de sus sistemas. Un ejemplo serían los chatbots. Los usuarios deben ser conscientes de que están interactuando con una máquina y no con un humano. Se debe informar a los usuarios de la naturaleza de la IA para que puedan tomar decisiones informadas sobre su uso.
  • Riesgo Mínimo o Nulo: La mayoría de las aplicaciones de IA caen en esta categoría, donde la libertad de los usuarios para usar la IA es muy amplia. Aquí, el riesgo para los derechos y la seguridad de los ciudadanos es bajo. Ejemplos incluyen sistemas de IA para videojuegos o filtros de spam en el correo electrónico. Para estos, la legislación de la UE propone pocos o ningún requisito adicional.

Este enfoque escalonado refleja el compromiso de la UE de fomentar la innovación en el campo de la IA, al tiempo que protege la seguridad, la privacidad y los derechos fundamentales de sus ciudadanos. La clasificación detallada permite una regulación más específica y ajustada al nivel de riesgo que cada tipo de sistema de IA representa.

Próximos pasos en relación a la regulación.

El borrador final de la legislación requiere un acuerdo conjunto entre la Comisión Europea, el Consejo Europeo —que reúne a los líderes políticos de los 27 Estados miembros— y una negociación trilateral que podría diluir significativamente la propuesta hasta el punto de desvirtuarla. Este proceso, conocido como trílogos, está revelando una notable discrepancia en cuanto a la regulación de la IA. Uno de los aspectos más debatidos es el uso de sistemas de reconocimiento facial. Inicialmente, el Parlamento Europeo acordó prohibir su aplicación en tiempo real, pero recientemente, se ha flexibilizado esta prohibición total en favor de otras compensaciones. Esto implica que ahora se contempla, permitir el uso de esta tecnología por las fuerzas policiales en situaciones específicas, como la búsqueda de personas desaparecidas o la prevención de actos terroristas.

Otro punto de desacuerdo lo encontramos en los modelos fundacionales, que en inteligencia artificial (IA) se refieren a modelos de aprendizaje automático a gran escala, particularmente aquellos basados en técnicas de aprendizaje profundo, que han demostrado ser extremadamente versátiles y eficaces en una amplia gama de tareas de IA. Estos modelos son «fundacionales» en el sentido de que sirven como base para una variedad de aplicaciones, ofreciendo un punto de partida sólido para la personalización y la adaptación a necesidades específicas. Podríamos decir que son el corazón tecnológico de herramientas generativas como Bard, de Google, o ChatGPT y DALL-E. Sobre ellos, en principio parecía haber consenso sobre la necesidad de fijar normas más estrictas para los sistemas más potentes, no obstante ese planteamiento disgusta a grandes países de la UE como Francia, Alemania o Italia, que se han opuesto a cualquier tipo de regulación sobre los mismos, argumentando que esa normativa pondría en peligro la innovación, aunque su rechazo también viene vía presión de la industria de la Inteligencia Artificial.

El objetivo era alcanzar un acuerdo antes de final de año 2023, esperemos entonces por el mismo, aunque mucho me temo que como en su momento lo fue internet, va a ser complejo ponerle puertas al campo.

Vínculos de interés relacionados con el artículo: