Publicaciones

Comienza el contenido principal

La Propuesta de Reglamento sobre Inteligencia Artificial, nuevo marco legal para la innovación

| Publicaciones | Privacy, IT & Digital Business

A propósito de la Propuesta de Reglamento sobre Inteligencia Artificial publicada por la Comisión Europea, que se enmarca dentro de la estrategia digital europea denominada “Shaping Europe's Digital Future"

El pasado 21 de abril de 2021, la Comisión Europea (CE) ha publicado su Propuesta de Reglamento sobre Inteligencia Artificial (“Propuesta de Reglamento IA”), que se enmarca dentro de la estrategia digital europea denominada “Shaping Europe's Digital Future”, cuyo principal objetivo es impulsar la transformación digital, creando nuevas oportunidades para las empresas y garantizando el máximo respeto por los derechos fundamentales de los ciudadanos.

Tras la entrada de las redes 5G, las tecnologías basadas en inteligencia artificial (“IA”) se han ido asentando de forma transversal en todos los sectores, desde los asistentes virtuales, el reconocimiento facial, las aplicaciones online predictivas o incluso la incorporación de bots a dispositivos y aparatos electrónicos cotidianos.

El uso de la IA y las redes de 5G van a permitir normalizar y abaratar el uso de big data (técnicas de procesamiento y análisis de ingentes volúmenes de datos) en todas las industrias, lo que, sin duda, repercutirá en una importante reducción de costes de producción y, a su vez, en el desarrollo cada vez mayor de productos y servicios personalizados para los usuarios.

El impacto de la IA en la privacidad de las personas evidente y conlleva importantes debates sociales, ya sea en su uso por empresas privadas como por las propias administraciones públicas (véase como ejemplo, el debate surgido en torno al uso de IA con fines de videovigilancia llevado a cabo en países como China).

La Propuesta de Reglamento IA proporciona una definición amplia del concepto de IA, entendiéndola como un software que, mediante el empleo de técnicas matemáticas y de programación, conocidas como “algoritmos”, permiten elaborar resultados que sirven para realizar predicciones, pronósticos de conductas, recomendaciones de decisiones futuras, entre otros fines.

Dado que la Comisión Europea es consciente de las múltiples aplicaciones y los riesgos que puede suponer la aplicación de la IA en los usuarios, con la Propuesta de Reglamento de IA ha tratado de establecer un marco legal claro sobre las implicaciones que conlleva el uso de la IA.

Téngase en cuenta que, si la Propuesta de Reglamento de IA es finalmente aprobada, simplemente desarrollar un App online que integre algún tipo de bot (i.e. software de robot) de asistencia al usuario, va a conllevar que el operador deba previamente valorar si la solución que desea implementar utilizando IA conlleva implementar alguna salvaguarda adicional.

De este modo, la Propuesta de Reglamento de IA, establece la siguiente clasificación sobre los posibles usos de la IA:

  • Aplicaciones de IA prohibidas: se prohíbe el uso de sistemas de IA destinados a manipular el comportamiento humano, explotar la información sobre individuos o grupos de individuos, realizar clasificaciones o evaluaciones sociales de los mismos y para fines de control por medio de sistemas videovigilancia de forma indiscriminada.
  • Aplicaciones de IA sujetas a autorización: la identificación biométrica remota en espacios públicos (i.e. videovigilancia) estará sometida a autorización administrativa previa. Esta autorización únicamente se concederá cuando exista una norma habilitante, o bien para la lucha contra delitos graves (i.e. terrorismo) y en todo caso, estará sometida a límites y garantías.
  • Aplicaciones de IA con requisitos específicos: se establecen reglas concretas para determinados usos de la IA, como pueden ser en caso de uso de un “chatbot” o para el empleo de los sistemas conocidos como “deep fake”.
  • Aplicaciones de IA de “alto riesgo”: se considera que ciertas aplicaciones de la IA pueden suponer serios riesgos para los ciudadanos, por lo que establece determinados requisitos en estos casos. Así, por ejemplo, el uso de IA para identificación biométrica o para el funcionamiento de infraestructuras críticas requerirá la previa verificación de un tercero independiente.

Adicionalmente, para otros usos de IA, como puede ser las aplicaciones predictivas (i.e. admisión de estudiantes en centros universitarios, concesión de créditos, etc.) o las aplicaciones destinadas a la evaluación de riesgos, será necesario una suerte de declaración responsable.

Puede descargar el documento completo desde aquí.

Para más información, puede contactar con:

Isabel Martínez Moriel, Socio del área de Privacy, IT & Digital Business

isabel.martinez@es.Andersen.com

Fin del contenido principal