«A nivel europeo, España está en un escalón medio-alto en cuanto a implementación de la IA en el sector jurídico. En la abogacía, en los despachos pequeños, que serán entre el 70% y el 80%, aún no se utiliza mucho. En cambio, en el 20% restante, que es la alta abogacía y las grandes consultoras, la utilizan bastante más. Y en las administraciones de justicia ha habido en los últimos años iniciativas, interés y ganas. Pero varía mucho de una a otra en función de sus recursos e incluso de las distintas CCAA».
Lo explica Jorge Morell Ramos, abogado especializado en nuevas tecnologías y consultor legaltech, que asegura que en los últimos cinco o seis años el uso de la IA ha mejorado mucho en el sector jurídico. No obstante, su irrupción no ha sido tan espectacular como en otros ámbitos. Se ha tratado en todo momento de un proceso mucho más lento que, eso sí, aún sigue en marcha.
Morell apunta a que hay varias razones que explican esto. El sector es bastante «reacio» a emplear esta tecnología porque los abogados están entrenados para «estudiar el pasado y tratar de predecir en futuro», y son reticentes a aceptar ayuda. Además, también han sido preparados para evitar el riesgo a toda costa y utilizar únicamente herramientas muy seguras y fiables, que se alejan bastante de lo que es la IA. En definitiva: muchos entienden que se trata de una labor artesana y cada caso es especial y único.
No obstante, a día de hoy ya es un recurso muy útil para labores específicas, como analizar documentación mercantil o sentencias. Y aunque su implementación se ha producido hasta el momento de forma mucho más paulatina, el experto señala que su potencial en el ámbito jurídico es enorme a medio y largo plazo. La razón es muy sencilla: se trata de un sector donde se utilizan muchos textos. Y ahí la IA ha demostrado ser muy útil.
Pero, cuando llegue su impacto real, ¿cómo será?. «Hay informes que dicen que a partir de 2040 el sector legal británico sufrirá cambios serios. Una tercera parte, casi 70.000 personas, podrían desparecer, entre comillas. Muchos tendrían que replantearse su labor para transformarse. En definitiva, sería actualizarse, reeducarse, y reenfocarse o quedarse por el camino», señala Morell.
No obstante, el experto señala que en general espera que el impacto de la IA sea «positivo». Y de hecho, asegura que él mismo la utiliza en su trabajo diario. Pero se muestra convencido de que su utilidad real está reservada a aspectos muy concretos, donde sí se convertirá en una gran ventaja. En cuanto a los problemas que puede generar, ya se empiezan a vislumbrar algunos. Pero, como en todo lo relacionado con está nueva tecnología, aún hay mucha incertidumbre e incógnitas por resolver.
Para tratar de regular su uso en el sector, en 2018 la Comisión Europea para la Eficacia de la Justicia (CEPEJ) ya aprobó la primera Carta Europea sobre el Uso Ético de la Inteligencia Artificial en los Sistemas Judiciales y su Entorno, donde recogía una serie de iniciativas y de principios para hacer un buen uso de la IA. Y para finales de año, si todo va bien, se aprobará el primer reglamento europeo de la IA, que supondrá, según Morell «la primera gran legislación a nivel mundial», aunque en algunos aspectos no está demasiado claro qué es exactamente lo que propone.
Problemas de la IA en el sector jurídico
«La Justicia históricamente siempre ha ido mal en cuanto a recursos económicos y humanos. Así que mi principal miedo es que se utilice la IA para desatascar los tribunales, que muchas veces están a tope. Que se convierta en un arma semipolítica. Porque un algoritmo puede tener un 95% de acierto, pero ese 5% restante supone que estás fastidiando a miles de personas que podrían tener un juicio justo», explica Morell.
El experto recuerda que hace unos años Francia ya exploró esta opción de automatizar los juicios. No se trataría de que un «juez robot» te pudiera meter en la cárcel. Más bien tendría que ver con procesos jurídicos como pedir becas, préstamos bancarios o bonos sociales. Y ahí la IA podría tener sesgos, datos condicionados o presentar errores informáticos que alterasen su veredicto.
Sin duda, otro de los problemas que se avecina es cómo responder a una tecnología que permite falsificar imágenes, vídeos e incluso audios de manera relativamente sencilla y barata. «Va a ser uno de los temas que va a dar problemas. Hasta ahora ha habido sólo un par de casos públicos, pero es otro de los grandes temores, sobre todo de los abogados de tema procesal, porque potencialmente les van a poder engañar», detalla Morell. Y añade: «En temas de situaciones complejas, como ex parejas conflictivas, puede ser algo complicado».
De entrada, esto generará que los gastos periciales se disparen. Y eso puede provocar que se abra una brecha económica que haga que algunos acaben teniendo más derechos que otros. La esperanza es que, a medida que las IAs generativas estén cada vez más extendidas, también lo estén las herramientas de verificación de la información.
Otro miedo habitual con la IA en todos los sectores es la posibilidad de que destruya puestos de trabajo. Esto, extrapolado al ámbito jurídico, tendría que ver sobre todo con los puestos que ocupan los juniors. Es decir, los abogados que acaban de terminar la universidad. Y no es sólo que habría menos trabajo para ellos, sino que también estarían más limitados porque muchas tareas recaerían en la tecnología. Y algunos temen que eso a la larga les haga estar menos preparados.
Por último, otra de las amenazas es que la información generada por IA se de como verdadera, cuando ni mucho menos es así. Chat GPT ya ha protagonizado varios líos jurídicos precisamente por este motivo. Pero Morell vaticina que puede ir a más: «Es un riesgo real, Mientras más se facilite el acceso a la IA más común va a ser. Chat GPT ha sido la punta del iceberg. Pero está por venir un maremoto inevitable y a todas las escalas».
Las mentiras de Chat GPT
«Las veces que se ha usado Chat GPT en el ámbito jurídico ha sido un fiasco. En EEUU dos abogados lo utilizaron y se inventó unos precedentes legales. Están siendo investigados, y se juegan una sanción y estar un tiempo sin ejercer por mala praxis. Y esto ha respaldado el discurso de los que no quieren usar la IA en el sector», señala Morell.
El experto recuerda otro caso que ha llevado incluso a OpenAi a los tribunales. Un locutor de radio pidió a Chat GPT un perfil de otro locutor de su competencia, y la tecnología le aseguró que estaba implicado en un asunto judicial delicado. Era mentira, pero para cuando se enteró ya había hecho esa información pública. Y el afectado prefirió denunciar directamente a la empresa que desarrolló Chat GPT porque, claro, puede sacarle más dinero.
«La pregunta es si esta demanda tiene viabilidad. Open Ai se ha defendido diciendo que Chat GPT no tiene malicia, y de hecho avisan de que la información que da puede no estar actualizada o no ser correcta. Pero la empresa podría tener también su parte de responsabilidad», comenta Morell.
En Australia hubo otro caso similar. Un alcalde que era considerado un héroe por haber ayudado a condenar a muchísima gente por corrupción aparecía en Chat GPT como un delincuente. Y claro, amenazó con demandarles por difamación. Una herramienta peligrosa que puede echar al traste la reputación de cualquiera.