Una teatralización presentada en un evento jurídico mostró como tres modelos de IA podrían cumplir el rol de jueces: el simulacro arrojó críticas sobre la falta de consideración del lenguaje corporal, el tono y otros aspectos de comunicación humana, aunque se destacó el seguimiento de los hechos y la rigurosidad en los datos de la IA.
La Facultad de Derecho de la Universidad de Carolina del Norte, en Estados Unidos, presentó el pasado 24 de octubre de 2025 un simulacro de juicio en el cual el veredicto lo dictaron, en tiempo real, tres aplicaciones populares de Inteligencia Artificial (IA): ChatGPT, Grok y Claude. El ejercicio, que formó parte del festival Converge-Con, buscó explorar si la IA podría reducir sesgos humanos o, por el contrario, acentuar nuevas formas de injusticia.
De acuerdo a una nota de prensa, la puesta en escena recreó un futuro hipotético en el año 2036, en el que un supuesto protocolo de justicia cibernética permite que modelos generativos actúen como jurados. Se juzgó a una persona que, en teoría, había cometido un hurto siendo menor de edad. La experiencia juntó a estudiantes de derecho como participantes del simulacro, a expertos en legislación en el desarrollo de los contenidos y a especialistas en datos en el aporte de la información específica para los modelos de IA.
Ventajas y críticas
Luego de la presentación de pruebas y alegatos, los modelos deliberaron y entregaron sus veredictos en público: según los organizadores, el resultado de los modelos de IA arrojó un veredicto de no culpabilidad para el joven hipotéticamente imputado por robo, cuando en un caso similar pero real un jurado humano había fallado en sentido contrario. Los promotores del experimento señalaron que los sistemas mostraron atención a la ley y a los detalles del hecho durante sus deliberaciones.
Sin embargo, como señala un artículo publicado en Futurism, la iniciativa también evidenció los límites de la experiencia: los expertos señalaron que los modelos de IA solo procesan las palabras expresadas en la sala pero no tienen en cuenta otros aspectos como el lenguaje corporal, el tono al hablar y las emociones de los testigos, elementos que tradicionalmente influyen en decisiones humanas a nivel jurídico.
Detalles humanos
Los críticos advirtieron que aunque los modelos fueron eficientes para manejar información compleja, no incorporan la dimensión íntimamente humana que influye en la justicia penal. Vale recordar que el simulacro no pretendía ofrecer una solución inmediata, sino alimentar la discusión sobre la legitimidad, precisión y los riesgos éticos de delegar decisiones de vida y libertad a algoritmos.
Los organizadores invitaron a expertos para un panel posterior al experimento, que abordó preguntas sobre sesgos, responsabilidades y el posible rol futuro de la IA en procesos civiles, un ámbito donde la inteligencia artificial podría tener una introducción menos problemática que en causas penales, reduciendo tiempos y agilizando el trabajo legal.















