La Inteligencia Artificial es una realidad cada vez más presente en nuestras vidas y por ello, desde Europa se ha lanzado la primera iniciativa legislativa para intentar regular una materia que cada vez más se antoja normativamente inabarcable.
El Parlamento Europeo ha iniciado la tramitación del primer y único intento de legislación en la materia. Así, las eurodiputadas y los eurodiputados adoptaron su posición negociadora sobre la futura Ley de Inteligencia Artificial (IA) el pasado 14 de junio. A partir de ahora comenzarán las conversaciones sobre la forma final de la ley en el Consejo junto a los países de la Unión Europea con el objetivo fijado en intentar alcanzar un acuerdo antes de acabar este año.
Una de las principales características de la nueva ley es que se pretende que sea de aplicación incluso para empresas tecnológicas con sede fuera de la Unión Europea, pero que desplieguen sus productos en el territorio, lo cual es bastante inusual pero que da constancia de la preocupación por los efectos del despliegue de los diferentes productos de Inteligencia Artificial (IA) que pueden desarrollar las empresas desde cualquier parte del mundo.
Esta aplicación extraterritorial de la ley se haría en forma de aplicación de multas millonarias a todas aquellas empresas que, independientemente de dónde radiquen, incumplan lo establecido en la ley de Inteligencia Artificial (IA).
Inteligencia Artificial: diferentes niveles de riesgo
La propuesta legislativa se estructura en base a la consideración de diferentes niveles de riesgo de la tecnología de Inteligencia Artificial (IA), dependiendo del ámbito de la vida de las personas al que afecten.
El riesgo más elevado es el calificado como “Riesgo inaceptable” y tiene que ver con aquellas tecnologías que tengan riesgo para la vida o las creadas para favorecer la manipulación de personas o grupos vulnerables. Igualmente, entran en este grupo todo lo relacionado con los sistema de identificación biométrica o facial y con el puntaje social, como en el caso de China, donde ya se utiliza este tipo de aplicaciones para calificar a las y los ciudadanos como saludables o no, dependiendo de su comportamiento alimentario que rastrean mediante Inteligencia Artificial (IA). Todas las aplicaciones que tengan que ver con este tipo de aplicaciones estarán prohibidas.
El siguiente escalafón es el calificado como de “Alto Riesgo”, y se refiere a todas aquellos desarrollos tecnológicos mediante Inteligencia Artificial (IA) que pudieran poner en peligro los derechos fundamentales o pongan en riesgo la seguridad colectiva. En este grupo estaría, por un lado, todo lo que pudiera influir en la normativa propia de seguridad de los productos de la UE como son aviones, coches, dispositivos médicos o incluso juguetes.
¿Qué pasa con ChatGTP?
Y por otro lado, dentro de este mismo grupo de “Alto riesgo” se incluirán ocho subcategorías de materias a las que pudieran afectar la intervención de la Inteligencia Artificial (IA) que son los sistemas de identificación biométrica a posteriori, la gestión y explotación de infraestructuras críticas, la educación, empleo, servicios esenciales, aplicación de la ley, gestión de l inmigración, asilo y control de fronteras y asistencia en la interpretación jurídica y aplicación de la ley.
Todas las tecnologías de IA que se consideren de “Alto riesgo” deberán ser evaluadas antes de su comercialización e incluso, una vez en el mercado, podrán ser reevaluadas en cualquier momento.
En un nivel más bajo estarían los sistemas de “IA Generativa”, como el famosos ChatGPT, a los que se les exigirán el cumplimiento de una serie de condicionantes de transparencia que son señalar que el contenido ha sido creado mediante IA, diseñar un modelo para evitar que la IA genere contenidos ilegales y la obligación de publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento de la IA.
Por último, nos encontramos con la calificación de sistemas de “Riesgo Limitado”, considerados los que menos potencial negativo tienen. Son sistemas que generan o manipulan contenido de video, audio o imagen, capaces de generar deepfakes, que estarán obligados a avisar al usuario de que se trata de manipulaciones hechas mediante IA, para que el propio usuario sea el que decida, bajo su responsabilidad, si seguir utilizando dichos sistemas o no.
Prevenir efectos nocivos para la humanidad
Esta iniciativa legislativa inédita y única en el mundo, ya que ningún otro territorio ha iniciado un proceso legislativo sobre esta materia, viene precedida de diversos toques de atención de la comunidad científica sobre el riesgo que un desarrollo descontrolado de la IA podría suponer para las personas.
En este sentido, en la Cumbre de CEO de Yale, celebrada la semana pasada, más del 40% de los líderes empresariales afirmaron que la IA tenía el potencial para destruir la humanidad en los próximos cinco a diez años.