El TSJ de Canarias sanciona a un abogado por usar IA generalista sin verificar: lecciones clave para la abogacía

La reciente resolución del Tribunal Superior de Justicia de Canarias marca un antes y un después en el uso de la inteligencia artificial en el ejercicio profesional. La Sala de lo Penal ha impuesto una multa de 420 euros a un letrado por incluir en un recurso hasta 48 sentencias inexistentes del Tribunal Supremo, generadas por una herramienta de IA generalista y no verificadas.

No es una anécdota tecnológica. Es un pronunciamiento jurídico con consecuencias deontológicas.

Este artículo analiza en profundidad qué ha ocurrido, qué ha dicho el Tribunal y qué implica para despachos, abogados y departamentos jurídicos que están incorporando IA en su práctica diaria.


¿Qué ocurrió exactamente?

El abogado utilizó una herramienta de inteligencia artificial “generalista” —no diseñada específicamente para el ámbito jurídico— para fundamentar un recurso de apelación. En el escrito incluyó 48 citas de sentencias y un supuesto informe del Consejo General del Poder Judicial que, en realidad, no existían.

La inexistencia fue detectada por la documentalista del Tribunal. La Sala constató que el letrado no verificó:

  • Números de sentencia
  • Fechas
  • Identificadores
  • Existencia real de las resoluciones

Tampoco contrastó las referencias en bases oficiales como el Centro de Documentación Judicial (CENDOJ), de acceso universal y gratuito.

El Tribunal considera que esta omisión supone una quiebra del deber básico de supervisión humana y del estándar de diligencia exigido por el Código Deontológico.


Lo más relevante: el Tribunal no rechaza la IA

Un punto esencial que conviene subrayar: la Sala no desautoriza el uso de inteligencia artificial en la abogacía. De hecho, reconoce expresamente su potencial.

Lo que sanciona no es la tecnología, sino:

  • La ausencia de verificación
  • La dependencia ciega del sistema
  • La delegación del criterio profesional

Además, al fijar la cuantía de la multa (420 €), el Tribunal introduce un elemento pedagógico: señala que esa cantidad equivale aproximadamente a la mitad del coste anual de una herramienta de inteligencia artificial específicamente jurídica disponible en el mercado y que, de haber sido utilizada, probablemente habría evitado el resultado.

Es una afirmación jurídicamente muy significativa: el propio Tribunal distingue entre IA generalista e IA jurídica especializada.


El verdadero problema: escribir no es verificar

Las IAs generalistas son potentes generadores de texto. Pueden redactar con solvencia, estructurar argumentos y simular citas con apariencia técnica.

Pero no garantizan:

  • Veracidad de jurisprudencia
  • Autenticidad de referencias normativas
  • Conexión real con bases oficiales
  • Trazabilidad jurídica

Los modelos de lenguaje predicen texto probable. No certifican fuentes.

En el ámbito jurídico, esa diferencia es crítica.

El estándar profesional no permite trasladar el riesgo tecnológico al órgano judicial ni al cliente. La responsabilidad es siempre del abogado.


Supervisión humana: el eje vertebrador

La Sala lo expresa con claridad: la supervisión humana es indeclinable cuando se emplean herramientas de IA en el ejercicio profesional.

Eso implica:

  • Verificación sistemática de citas
  • Contraste en bases oficiales
  • Control real del contenido generado
  • Comprensión del alcance y límites de la herramienta

La IA es asistencial. Nunca decisoria.

Este principio no es una recomendación técnica. Es una exigencia jurídica.


Preguntas clave sobre el caso

¿Puede un abogado ser sancionado por usar inteligencia artificial?

Sí, si utiliza la IA sin verificar la información generada y vulnera el deber de diligencia profesional.

¿Está prohibido usar IA en la abogacía?

No. El Tribunal reconoce su potencial. Lo que exige es supervisión humana y verificación de fuentes.

¿Por qué se inventan sentencias las IAs generalistas?

Porque funcionan como modelos de predicción de texto y no como bases de datos jurídicas verificadas.

¿Cómo evitar errores al usar IA en escritos judiciales?

Utilizando herramientas jurídicas especializadas, verificando todas las referencias en bases oficiales y manteniendo control humano sobre el contenido final.


IA generalista vs IA jurídica especializada

La resolución deja entrever una distinción fundamental:

IA generalistaIA jurídica especializada
Diseñada para generar textoDiseñada para tareas jurídicas
Sin delimitación por ordenamientoFoco en Derecho concreto
Mayor riesgo de alucinacionesOrientada a rigor y verificación
Uso amplio y no estructuradoUso asistencial y contextual

La diferencia no es solo técnica. Es profesional.

En Prudencia.ai partimos de un principio claro: la innovación sin método es imprudencia tecnológica. La IA debe estar diseñada para convivir con el estándar de diligencia que exige la abogacía.


Impacto en despachos y departamentos jurídicos

Este caso tiene implicaciones prácticas:

  1. Obliga a revisar protocolos internos de uso de IA.
  2. Exige formación del equipo en verificación y límites tecnológicos.
  3. Introduce riesgo disciplinario si no se controla adecuadamente.
  4. Refuerza la necesidad de soluciones especializadas frente a herramientas generalistas.

La productividad no puede lograrse a costa de la fiabilidad.


El mensaje estructural del caso

La multa es simbólica. El mensaje es estructural.

El Tribunal no está frenando la innovación. Está definiendo el estándar de uso profesional de la IA.

Ese estándar incluye:

  • Supervisión humana efectiva
  • Verificación sistemática
  • Elección adecuada de herramientas
  • Responsabilidad indelegable

La tecnología no exime del deber de diligencia.


El enfoque de Prudencia.ai

Prudencia.ai nace precisamente en este contexto: no para sustituir al abogado, sino para asistirle con método y rigor.

Nuestro enfoque parte de cuatro pilares:

  • Especialización en Derecho español y europeo
  • Diseño orientado a tareas jurídicas reales
  • Conciencia del riesgo de alucinaciones
  • Fomento de la verificación y el control humano

No creemos en la automatización ciega. Creemos en abogados aumentados que utilizan tecnología con criterio.


Conclusión

La resolución del Tribunal Superior de Justicia de Canarias no es un caso aislado. Es una señal clara de hacia dónde se dirige el estándar profesional.

La IA puede multiplicar productividad.
Puede mejorar eficiencia.
Puede liberar tiempo estratégico.

Pero no puede sustituir la responsabilidad jurídica.

La diferencia entre usar tecnología y delegar el criterio marca la línea entre innovación y negligencia.

El futuro del Derecho será tecnológico.
Pero también será prudente.


Podría interesarte: Escribir no es razonar ¿Por qué muchas IA legales se quedan cortas?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *