Noticias

Comienza el contenido principal

Inteligencia artificial y seguridad jurídica: una necesidad ineludible

| Noticias | Derecho Procesal

Vicente Moret analiza cómo los sistemas basados en AI están afectando de forma masiva a nuestras vidas y generan muchas incertidumbres que se deben aclarar en un adecuado marco normativo y ético que la regule

Los sistemas basados en Inteligencia Artificial (AI) están afectando ya de forma masiva a nuestras vidas de forma a veces no evidente. Cada vez más los ciudadanos y las personas jurídicas somos objeto de acciones y decisiones adoptadas mediante estos sistemas. En este contexto de transformación digital acelerada, esta tecnología basada en cantidades ingentes de datos y en algoritmos, es cada día más utilizada por empresas y Administraciones Públicas por las evidentes ventajas que supone como potenciadora de cualquier actividad económica o de gestión. Es el componente esencial de sistemas de conducción autónoma, de reconocimiento facial o de medicina digital, por citar sólo algunos ejemplos, que se unen a los que ya se vienen usando de forma masiva en el ámbito financiero desde hace algunos años.

Como es obvio, la AI puede traer innumerables beneficios para hacer a las empresas y las Administraciones Públicas mucho más eficaces y eficientes en el contexto de cambio que estamos viviendo. Por esa razón, todos los documentos publicados recientemente por la Comisión Europea sobre la estrategia digital para los próximos años, insisten en la necesidad de impulsar la investigación, desarrollo e implementación de estos sistemas ya que en esta materia Europa ha quedado por detrás de las dos grandes potencias digitales, EEUU y China. La AI se ha convertido en una prioridad estratégica en todos los aspectos para Europa, que en febrero pasado publicó un Libro Blanco sobre Inteligencia Artificial que sienta las bases de lo que debe ser el futuro desarrollo de esta tecnología y su regulación.

Al lado de las grandes expectativas que trae la AI, lo cierto es que son muchas las incertidumbres y los potenciales peligros que esta tecnología entraña si no se establece un adecuado marco normativo y ético que la regule. La primera afirmación que cabe hacer es que, desde un punto de vista jurídico, el uso de estos sistemas genera cuestiones que no se pueden resolver con la normativa actualmente en vigor. Por esa razón la Comisión apuesta con claridad por crear un marco regulador coherente en toda la UE. Como constatación de lo anterior, podemos hacernos eco de las grandes dudas que está generando la implantación masiva de sistemas de reconocimiento facial. Estos sistemas están ahora en el centro mismo del debate público, no por su eficacia o por su necesidad, sino por los límites legales y éticos de su uso desde el punto de vista del respeto a los derechos fundamentales y las libertades públicas. En nuestros sistemas jurídico-políticos no es posible el uso de forma indiscriminada de mass surveillance sin que se vean afectados esos derechos fundamentales que son la base misma de nuestra forma de vida.

Otro tanto cabría afirmar del sistema legal europeo y nacional de protección de los consumidores y usuarios, no preparado para atribuir responsabilidad por mal funcionamiento con respecto a sistemas de AI basados en algoritmos, los cuales son auténticas cajas negras nada transparentes. Los efectos desde el punto de vista legal pueden suponer la conculcación de varios derechos fundamentales como el principio de igualdad y no discriminación, la libertad de expresión, el derecho a la intimidad y a la privacidad, los derechos como consumidores y usuarios, o los derechos en materia de protección de datos. Por ello, el mejor enfoque para evitar estos daños sería el del riesgo asociado a cada sistema concreto, de forma tal que se lleve a cabo una evaluación legal caso por caso antes de su utilización. Ahora bien, para no cargar con obligaciones legales que frenen la investigación, la innovación y el desarrollo de la actividad económica, esta evaluación jurídica y ética, sólo debería ser obligatoria para los sistemas que supongan riesgo elevado desde el punto de vista de los derechos individuales y desde el punto de vista de manejo de datos. Por otra parte, las empresas que usen o tengan previsto utilizar estos sistemas de AI deben tener presente que la complejidad en cuanto al desarrollo, implementación y cadenas de suministro de esta tecnología, hacen muy probable que sean señaladas como responsables civiles en caso de mal funcionamiento o error. Ese aspecto de atribución de responsabilidades ha sido señalado por la Comisión Europea como uno de los aspectos centrales en la nueva regulación por venir de la AI.

Por todo lo anterior, y a la espera todavía de la configuración definitiva de un nuevo marco regulador de la AI en el cual se está trabajando intensamente, es imprescindible desde un punto de vista legal, que las empresas y Administraciones que vayan a utilizar estos sistemas realicen una evaluación del impacto jurídico y ético de su uso y de sus características. Parámetros tales como la transparencia, la supervisión humana, la ciberseguridad, la procedencia de los datos utilizados, los sesgos implicados en la programación o la justificación de la finalidad, pueden suponer la diferencia entre una adecuada utilización de estos sistemas o la generación de importantes consecuencias jurídicas y reputacionales negativas. Teniendo en cuenta que la Comisión Europea ya ha sentado los principios y las bases de la futura normativa reguladora de la IA, esos mismos parámetros nos pueden servir para dar a las empresas, las Administraciones, los ciudadanos y consumidores, y en general a la sociedad más seguridad jurídica en un contexto tan cambiante como el de la disrupción digital.

Puede ver el artículo en Expansión

Fin del contenido principal