El TSJ de Canarias sanciona a un abogado por usar IA generalista sin verificar: lecciones clave para la abogacía
La reciente resolución del Tribunal Superior de Justicia de Canarias marca un antes y un después en el uso de la inteligencia artificial en el ejercicio profesional. La Sala de lo Penal ha impuesto una multa de 420 euros a un letrado por incluir en un recurso hasta 48 sentencias inexistentes del Tribunal Supremo, generadas por una herramienta de IA generalista y no verificadas.
No es una anécdota tecnológica. Es un pronunciamiento jurídico con consecuencias deontológicas.
Este artículo analiza en profundidad qué ha ocurrido, qué ha dicho el Tribunal y qué implica para despachos, abogados y departamentos jurídicos que están incorporando IA en su práctica diaria.
¿Qué ocurrió exactamente?
El abogado utilizó una herramienta de inteligencia artificial “generalista” —no diseñada específicamente para el ámbito jurídico— para fundamentar un recurso de apelación. En el escrito incluyó 48 citas de sentencias y un supuesto informe del Consejo General del Poder Judicial que, en realidad, no existían.
La inexistencia fue detectada por la documentalista del Tribunal. La Sala constató que el letrado no verificó:
- Números de sentencia
- Fechas
- Identificadores
- Existencia real de las resoluciones
Tampoco contrastó las referencias en bases oficiales como el Centro de Documentación Judicial (CENDOJ), de acceso universal y gratuito.
El Tribunal considera que esta omisión supone una quiebra del deber básico de supervisión humana y del estándar de diligencia exigido por el Código Deontológico.
Lo más relevante: el Tribunal no rechaza la IA
Un punto esencial que conviene subrayar: la Sala no desautoriza el uso de inteligencia artificial en la abogacía. De hecho, reconoce expresamente su potencial.
Lo que sanciona no es la tecnología, sino:
- La ausencia de verificación
- La dependencia ciega del sistema
- La delegación del criterio profesional
Además, al fijar la cuantía de la multa (420 €), el Tribunal introduce un elemento pedagógico: señala que esa cantidad equivale aproximadamente a la mitad del coste anual de una herramienta de inteligencia artificial específicamente jurídica disponible en el mercado y que, de haber sido utilizada, probablemente habría evitado el resultado.
Es una afirmación jurídicamente muy significativa: el propio Tribunal distingue entre IA generalista e IA jurídica especializada.
El verdadero problema: escribir no es verificar
Las IAs generalistas son potentes generadores de texto. Pueden redactar con solvencia, estructurar argumentos y simular citas con apariencia técnica.
Pero no garantizan:
- Veracidad de jurisprudencia
- Autenticidad de referencias normativas
- Conexión real con bases oficiales
- Trazabilidad jurídica
Los modelos de lenguaje predicen texto probable. No certifican fuentes.
En el ámbito jurídico, esa diferencia es crítica.
El estándar profesional no permite trasladar el riesgo tecnológico al órgano judicial ni al cliente. La responsabilidad es siempre del abogado.
Supervisión humana: el eje vertebrador
La Sala lo expresa con claridad: la supervisión humana es indeclinable cuando se emplean herramientas de IA en el ejercicio profesional.
Eso implica:
- Verificación sistemática de citas
- Contraste en bases oficiales
- Control real del contenido generado
- Comprensión del alcance y límites de la herramienta
La IA es asistencial. Nunca decisoria.
Este principio no es una recomendación técnica. Es una exigencia jurídica.
Preguntas clave sobre el caso
¿Puede un abogado ser sancionado por usar inteligencia artificial?
Sí, si utiliza la IA sin verificar la información generada y vulnera el deber de diligencia profesional.
¿Está prohibido usar IA en la abogacía?
No. El Tribunal reconoce su potencial. Lo que exige es supervisión humana y verificación de fuentes.
¿Por qué se inventan sentencias las IAs generalistas?
Porque funcionan como modelos de predicción de texto y no como bases de datos jurídicas verificadas.
¿Cómo evitar errores al usar IA en escritos judiciales?
Utilizando herramientas jurídicas especializadas, verificando todas las referencias en bases oficiales y manteniendo control humano sobre el contenido final.
IA generalista vs IA jurídica especializada
La resolución deja entrever una distinción fundamental:
| IA generalista | IA jurídica especializada |
|---|---|
| Diseñada para generar texto | Diseñada para tareas jurídicas |
| Sin delimitación por ordenamiento | Foco en Derecho concreto |
| Mayor riesgo de alucinaciones | Orientada a rigor y verificación |
| Uso amplio y no estructurado | Uso asistencial y contextual |
La diferencia no es solo técnica. Es profesional.
En Prudencia.ai partimos de un principio claro: la innovación sin método es imprudencia tecnológica. La IA debe estar diseñada para convivir con el estándar de diligencia que exige la abogacía.
Impacto en despachos y departamentos jurídicos
Este caso tiene implicaciones prácticas:
- Obliga a revisar protocolos internos de uso de IA.
- Exige formación del equipo en verificación y límites tecnológicos.
- Introduce riesgo disciplinario si no se controla adecuadamente.
- Refuerza la necesidad de soluciones especializadas frente a herramientas generalistas.
La productividad no puede lograrse a costa de la fiabilidad.
El mensaje estructural del caso
La multa es simbólica. El mensaje es estructural.
El Tribunal no está frenando la innovación. Está definiendo el estándar de uso profesional de la IA.
Ese estándar incluye:
- Supervisión humana efectiva
- Verificación sistemática
- Elección adecuada de herramientas
- Responsabilidad indelegable
La tecnología no exime del deber de diligencia.
El enfoque de Prudencia.ai
Prudencia.ai nace precisamente en este contexto: no para sustituir al abogado, sino para asistirle con método y rigor.
Nuestro enfoque parte de cuatro pilares:
- Especialización en Derecho español y europeo
- Diseño orientado a tareas jurídicas reales
- Conciencia del riesgo de alucinaciones
- Fomento de la verificación y el control humano
No creemos en la automatización ciega. Creemos en abogados aumentados que utilizan tecnología con criterio.
Conclusión
La resolución del Tribunal Superior de Justicia de Canarias no es un caso aislado. Es una señal clara de hacia dónde se dirige el estándar profesional.
La IA puede multiplicar productividad.
Puede mejorar eficiencia.
Puede liberar tiempo estratégico.
Pero no puede sustituir la responsabilidad jurídica.
La diferencia entre usar tecnología y delegar el criterio marca la línea entre innovación y negligencia.
El futuro del Derecho será tecnológico.
Pero también será prudente.
Podría interesarte: Escribir no es razonar ¿Por qué muchas IA legales se quedan cortas?