En septiembre de 2024, el Tribunal Constitucional impuso a un abogado de Barcelona una sanción de «apercibimiento» por faltar al «respeto debido» a este órgano mediante la presentación de una demanda que incluía un total de 19 supuestas citas entrecomilladas de sentencias que en realidad no existían. Aunque el Constitucional no llegó a esclarecer si la causa fue el uso de IA o simplemente un entrecomillado de argumentos propios, para los expertos en el uso de este tipo de herramientas este caso supuso una primera llamada de atención.
Así lo señala a EL PERIÓDICO Manuel de la Mata, responsable de Deontología del Colegio General de la Abogacía Española (CGAE) y decano del Colegio de Abogados de Castellón. «Los magistrados lo enfocaron como una falta de respeto y deslealtad y dieron traslado al colegio profesional de Barcelona«. Desde su punto de vista, más que una deslealtad él ve en este caso mala praxis. «Cuando preparas una demanda tienes la obligación de revisar y entregar un documento adecuado porque a quien estás perjudicando es a tu propio cliente, tienes que asegurarte que eso tiene vías de prosperar», señala.
Desde entonces, y ya sí identificados como mala praxis en el uso de IA, se han dado a conocer varios casos que inciden en la inclusión en las demandas de jurisprudencia inexistente — por «alucinaciones» de la herramienta que no se depuran — o alusión a normas penales de otros países.
Contra jueces
A ellas se suman quejas ante el Consejo del Poder Judicial contra jueces por introducción en abierto de datos confidenciales o un presunto uso indebido de estas herramientas en la valoración de prueba, según señala a este diario el vocal y magistrado del Tribunal Supremo José Antonio Montero, que trabaja en la elaboración de una Instrucción que será aprobada próximamente para ayudar a los jueces a manejarse en el uso de los motores de IA generativa.
La acción de responsabilidad contractual por mala praxis en la abogacía está regulada por el artículo 1101 del Código Civil, que establece que quienes en el cumplimiento de sus obligaciones incurren en negligencia están sujetos a indemnización por daños y perjuicios. A ello se suma la responsabilidad disciplinaria que se pueda aplicar por los colegios profesionales. Los jueces también están sujetos a régimen de sanciones si actúan de forma indebida.
Canarias, Alicante y Navarra
El pasado 5 de enero desde la Sala de lo Penal del Tribunal Superior de Justicia de Canarias se informó de la apertura de una investigación por posible falta a la buena fe procesal de un abogado en un recurso de apelación. Incluía jurisprudencia inventada y también alusiones a un pretendido informe del Consejo General del Poder Judicial sobre credibilidad del testimonio infantil que tampoco existe, y que presuntamente fueron generados por herramientas de inteligencia artificial. Los recursos se presentaron contra la absolución de un hombre juzgado por agresión sexual en Tenerife.
Diálogo de los androritmos con los algoritmos visto por la IA. / Generador de imágenes de la IA de BING para T21/Prensa Ibérica, desarrollada con tecnología de DALL·E.
Para los jueces canarios, se trata de un caso de negligencia por parte del letrado, que habría fiado su trabajo, «sin mayor revisión, a lo que el algoritmo le propuso». Por eso abrió pieza separada para investigar esta posible negligencia y dio traslado de los hechos al colegio profesional.
Algo parecido ocurrió en Alicante. Según el diario Información, perteneciente junto a El PERIÓDICO al grupo editorial Prensa Ibérica, la Audiencia Provincial ha denunciado recientemente ante el Colegio de la Abogacía de dicha provincia a otro profesional por haberse inventado citas de una sentencia del Tribunal Supremo, señalando que podía formar parte de una «alucinación» de la IA, pero sin descartar que pudiera existir voluntad de engañar al tribunal. El abogado pretendía ampararse en la Ley de Segunda Oportunidad en relación con una deuda de más de 100.000 euros de uno de sus clientes con la Seguridad Social.
Uno de los primeros casos conocidos ocurrió en Navarra en junio de 2024, en esta ocasión por la presentación de una querella en la que se invocaba la aplicación de un precepto del Código Penal que en realidad correspondía con el ordenamiento jurídico de Colombia.
En este caso querella fue inadmitida por el Tribunal Superior de Justicia y se abrió una investigación para determinar dispuso si había existido un abuso de derecho o mala fe procesal. En el marco de estas averiguaciones, el abogado reconoció haber utilizado parcialmente el ChatGPT-3 y se excusó admitiendo que había cometido un error material grosero, aunque «involuntario”. Para los jueces, el error no estuvo en el uso de la IA, sino en la falta de verificación por el letrado, pero terminó archivando el asunto.
Fue la Fiscalía
En otro caso reciente, la denuncia presentada contra el juez número 5 de Ceuta ante el Consejo General del Poder Judicial resultó ajena a las «alucinaciones» o mala praxis por IA, puesto que lo que ocurrió en realidad es que la Fiscalía cometió un error al hacer un «corta/pega» de jurisprudencia que el magistrado en cuestión no comprobó después. El caso fue denunciado por un abogado de Ceuta cuya personación no fue admitida en una causa en la que su cliente se encontraba en busca y captura.

Edificio de los Juzgados en Ourense / EUROPAPRESS
A juicio del letrado la sentencias citadas en el auto no existían y habían sido generadas por IA, pero una comprobación posterior sacó a la luz que el error tenía su origen en que la fiscal del caso se equivocó al introducirlas. Las resoluciones citadas sí existían, aunque referidas a delitos contra la libertad sexual. La Fiscalía pretendía aludir a ellas en otro asunto diferente, pero se equivocó al mantener los dos documentos abiertos en su pantalla de ordenador. En todo caso, este «error material involuntario» no fue detectado por el juez.
Principios deontológicos
Lo ocurrido en Ceuta nos vuelve a remitir al experto en Deontología del CGAE, que puntualiza que la mala praxis ya existía antes de que los abogados, jueces o fiscales acudieran a estos motores de IA, por lo que no ve necesario modificar los principios básicos que ya aparecen en los códigos deontológicos vigentes. Los más avanzados en esta materia son los despachos de abogados norteamericanos, a los que se obliga a conocer el funcionamiento de los motores que utilizan y advertir a sus clientes de que van a utilizar IA en sus casos. También pueden buscarse problemas si cuelgan documentos sin anonimizar.
«Muy pronto vamos a tener sentencias se vea que hay una utilización de Inteligencia Artificial», augura. También alerta de otros usos que abren el debate deontológico en los colegios profesionales como la aparición en algunas páginas web de despachos de abogados de sistemas automatizados de conversación, los «chatbots». Si un cliente hace una pequeña consulta es esta herramienta y luego el despacho en cuestión defiende a la parte contraria se podría incurrir en un conflicto de intereses. «Al final, los problemas deontológicos que provoca la IA son los mismos que ya existen, pero con una nueva dimensión», concluye Mata.
Suscríbete para seguir leyendo













