Pocas tecnologías ponen a prueba los cimientos de una profesión como la Inteligencia Artificial. En la Abogacía, un campo definido por la confidencialidad y el juicio humano, su llegada no es solo una modernización: es un desafío ético y estratégico. Más allá del entusiasmo inicial, los profesionales, que nos vemos no ya en la oportunidad sino, casi, en la necesidad y la obligación de tener que usarla en nuestro día a día, estamos descubriendo verdades complejas sobre esta tecnología. Por ello, considero que debemos documentar lo que aprendemos.
A continuación, y con el sólo objeto de reflexionar en voz alta, documentar y compartir dichas reflexiones, extraigo estas “5 Lecciones” de la lectura de la "Guía de Buenas Prácticas para el uso de la IA" del Ilustre Colegio de la Abogacía de Madrid (ICAM) que, considero, son importantes. Son las siguientes:
- Lección 1: La IA no "piensa" ni "entiende" el Derecho. Sólo lo predice.
La primera revelación es fundamental: debemos distinguir entre la IA analítica y predictiva y la IA generativa. Mientras que la primera se enfoca en analizar y clasificar datos existentes, la segunda crea contenido nuevo. Sin embargo, no lo hace porque "comprenda" un concepto como un humano. En realidad, utiliza complejos algoritmos estadísticos para predecir la siguiente palabra más probable en una secuencia, basándose en los millones de documentos con los que fue entrenada.
Esta distinción es crucial porque nos lleva a dos problemas clave:
- El primero son las "alucinaciones": información inventada que el sistema presenta como un hecho verídico.
- El segundo, más sutil pero igualmente peligroso, es su tendencia a replicar sesgos o errores presentes en los datos con los que fue entrenada.
En el ámbito legal, esto puede llevar a citar leyes inexistentes o a perpetuar prejuicios discriminatorios. La lección es clara: la IA es una herramienta increíblemente poderosa para generar borradores, pero carece del juicio crítico y la interpretación contextual que solo un profesional puede aportar.
- Lección 2: Introducir datos de un cliente en una IA pública puede ser una catástrofe.
En una profesión donde el secreto profesional es sagrado, el uso de herramientas de IA públicas plantea un riesgo mayúsculo. La guía del ICAM es contundente al advertir que introducir información confidencial en estas plataformas puede comprometer el secreto profesional y la seguridad de los datos si no existen garantías contractuales y técnicas adecuadas.
Por ello, los Abogados debemos actuar con una cautela extrema. Antes de usar una herramienta de IA en un caso, debemos revisar minuciosamente nuestras políticas de protección de datos y, si es necesario, obtener el consentimiento explícito del cliente.
Este dilema no es exclusivo de la Abogacía. Refleja una verdad universal en la era digital: la confianza que depositamos en médicos, terapeutas o incluso en nuestras conversaciones privadas depende de una confidencialidad que estas herramientas pueden poner en jaque.
- Lección 3: La responsabilidad final siempre es humana, nunca del algoritmo.
La tendencia de la IA a cometer errores sutiles o directamente a inventar información (Lección 1) es precisamente la razón por la que esta tercera lección es, quizás, la más importante: la responsabilidad final es y será siempre humana.
El principio de supervisión humana no es solo una recomendación, sino una obligación ética y deontológica ineludible. Cualquier resultado generado por una IA (ya sea un borrador de contrato o un análisis de jurisprudencia) debe ser rigurosamente revisado, validado y corregido por un profesional.
La Guía ICAM lo expresa de forma inequívoca: “La tecnología es una herramienta de apoyo, pero no reemplaza ni debe reemplazar al Abogado, ni a su criterio profesional o la revisión crítica por éste”.
Este punto es vital porque contrarresta la narrativa de que la IA reemplazará a los profesionales. Al contrario, reafirma que la toma de decisiones críticas, la estrategia y, sobre todo, la responsabilidad ética, recaen exclusivamente en la persona que utiliza la herramienta.
- Lección 4: En materia de IA, no estamos en el "Salvaje Oeste Americano": Hay “Reglas” (y son muy serias…).
Durante un tiempo, la adopción de la IA parecía un territorio sin ley. Si en algún momento esto fue así, ese tiempo ya ha terminado. Hoy, los profesionales debemos navegar dentro de un complejo panorama normativo, principalmente en el Reglamento de IA de la Unión Europea (AI Act) y el ya consolidado Reglamento General de Protección de Datos (RGPD).
Para evitar el caos, los reguladores han creado una especie de sistema de semáforos para la IA, clasificando cada uso según su potencial de daño:
- Riesgo inaceptable: Sistemas prohibidos (v.g., los de manipulación subliminal).
- Alto riesgo: Fuertemente regulados (los que afectan a Derechos Fundamentales).
- Riesgo limitado: Sujetos a obligaciones de transparencia.
- Riesgo mínimo: Sin obligaciones específicas.
Es significativo que los sistemas utilizados en áreas como la administración de justicia sean considerados de "alto riesgo". La lección para todos es que ya no se puede adoptar cualquier tecnología a la ligera; es imperativo considerar sus profundas implicaciones legales y éticas.
- Lección 5: Implementar IA no es comprar un Software, es adoptar una Estrategia.
La última lección es la que une a todas las demás: integrar la IA de forma responsable no es una simple compra, sino un proceso estratégico. Este proceso se rige por un concepto clave que la guía del ICAM denomina "diligencia proactiva reforzada". No se trata solo de supervisar los resultados, sino de adoptar una mentalidad vigilante y metódica que abarca todo el ciclo de vida de la tecnología.
Este enfoque estratégico se materializa en una serie de pasos prácticos que la guía del ICAM recomienda:
- Realizar una evaluación de necesidades para identificar dónde puede aportar valor.
- Investigar el mercado para encontrar soluciones seguras y adecuadas.
- Hacer pruebas piloto en un entorno controlado. Este entorno, o sandbox, es fundamental porque permite a las organizaciones testear la tecnología en un espacio seguro, midiendo su impacto real antes de que pueda afectar a un cliente o a un caso.
- Seleccionar herramientas que cumplan con estándares reconocidos, como las normas ISO.
Este modelo (evaluar, probar, verificar y documentar) ofrece una lección valiosa para cualquier organización que quiera innovar de manera segura y responsable, mucho más allá del ámbito legal.
En definitiva, si algo nos está enseñando la experiencia de la Abogacía con la Inteligencia Artificial es que esta tecnología es un complemento extraordinario, pero nunca un sustituto del juicio humano. La IA debe ser una Herramienta para la Abogacía, no un Oráculo de ésta. El verdadero potencial de la IA para los Abogados no reside en darnos respuestas, sino en ayudarnos a formular mejores preguntas.


Compartir: