Tiene alguna pregunta? Clic aquí!
Anulan decisión por citas inexistentes: La lección urgente para la justicia sobre IA, verificación y responsabilidad
- Welfare Legal
- Actualidad Jurídica
La anulación de una providencia que incorporó citas––––––– jurisprudenciales inexistentes expone una falla crítica: cuando la motivación judicial se apoya en información no verificada —sea por error humano o por la intervención de herramientas automatizadas— el fallo pierde su legitimidad y vulnera el debido proceso. Este artículo describe los hechos esenciales, sus implicaciones jurídicas y técnicas, y propone medidas concretas para evitar que “atajos” tecnológicos deriven en decisiones nulas y confianza pública erosionada.
1. El hecho y su gravedad jurídica
Un tribunal dictó una providencia cuya motivación incluía referencias jurisprudenciales que, al examen posterior, resultaron no existir o estar mal transcritas. La instancia superior anuló la decisión por defectos en la motivación, entendiendo que la fundamentación de un fallo es inseparable de la garantía del debido proceso: sin motivación veraz no hay control judicial efectivo ni posibilidad real de contradicción para las partes. La lección es clara: la validez de un acto jurisdiccional depende tanto de su forma como de su contenido verificable.
2. ¿Dónde entra la inteligencia artificial?
Las herramientas de IA pueden asistir en búsquedas, resúmenes y estructuración de argumentos; no obstante, su uso sin controles puede producir “alucinaciones” —contenido fabricado o atribuido incorrectamente— que, si se incorporan a una motivación sin verificación, comprometen la decisión. El problema práctico no es la IA per se, sino la delegación incondicional de la comprobación al sistema y la firma judicial sin diligencia certificable. La responsabilidad última sigue siendo humana: el juez que firma el fallo responde por su motivación.
3. Riesgos jurídicos concretos
- Nulidad o anulación de providencias por motivaciones basadas en fuentes inexistentes.
- Vulneración del derecho de defensa y del debido proceso, con potenciales cargas indemnizatorias o correctivas.
- Riesgo disciplinario para magistrados y funcionarios que no verifiquen fuentes ni documenten el uso de herramientas automatizadas.
- Costos reputacionales e institucionales, que socavan la confianza ciudadana en la administración de justicia.
4. Buenas prácticas técnicas y procesales (qué hacer ya)
1. Registro obligatorio del uso de IA: dejar constancia en el expediente sobre la herramienta utilizada, su versión, la consulta efectuada y el alcance de su apoyo.
2. Verificación humana ineludible: toda cita, precedente o extracto obtenido por IA debe cotejarse con la fuente primaria (texto íntegro de la sentencia, base de datos oficial, gaceta judicial) antes de su incorporación.
3. Conservación de trazabilidad: archivar consultas, logs y versiones intermedias que permitan auditar el proceso de elaboración del fallo.
4. Protocolos de comprobación internos: listas de verificación mínimas para motivación (fuentes primarias cotejadas; localización precisa de párrafos; certificación por funcionario distinto al generador del borrador).
5. Formación continua y certificación: programas obligatorios para jueces y personal judicial sobre limitaciones de IA, sesgos y técnicas de verificación.
6. Transparencia procesal: informar a las partes cuando elementos del escrito provengan de sistemas automatizados y abrir la posibilidad de impugnación focalizada sobre esas piezas.
5. Herramientas institucionales y arquitecturas de gobernanza
- Diseño de políticas institucionales que distingan entre software de apoyo documental y sistemas decisorios automatizados; prohibición de que decisiones se “firmen” sin comprobación humana.
- Acceso a bases de datos oficiales y subscripciones institucionales verificadas que se integren como fuentes primarias obligatorias.
- Implementación de auditorías tecnológicas periódicas y comités de ética en tecnología dentro de la Rama Judicial.
- Mecanismos disciplinarios claros y rápidos para faltas graves de verificación, preservando siempre las garantías procedimentales en el control del juez.
6. Mensaje para la ciudadanía y recomendaciones
Para la ciudadanía: exigir motivaciones verificables y mayor transparencia en la forma en que la justicia incorpora herramientas tecnológicas. Para jueces y administradores de justicia: la eficacia no justifica la imprecisión; la velocidad sin verificación puede costar la decisión misma. Para legisladores y gestores: normar el uso de IA en la función jurisdiccional, garantizando trazabilidad, derechos de las partes y formación obligatoria.
La anulación reciente es una advertencia. No es un llamado a renunciar a la innovación, sino a diseñar la innovación con procedimientos que garanticen el derecho fundamental al debido proceso. Usar IA con prudencia inteligente no es una opción: es una exigencia institucional y democrática.
Bibliografía:
- Ámbito Jurídico. (s. f.). Anulan decisión que citó argumentos inexistentes y advierten a jueces sobre uso de inteligencia artificial. Recuperado de https://www.ambitojuridico.com/noticias/civilfamilia/anulan-decision-que-cito-argumentos-inexistentes-y-advierten-jueces-sobre-uso
- Consejo Superior de la Judicatura. (2023). Lineamientos para el uso responsable de herramientas de inteligencia artificial en la Rama Judicial. Consejo Superior de la Judicatura.
- Corte Constitucional. (2023). Sentencia sobre uso de algoritmos y exigencias de motivación judicial (criterios sobre transparencia y responsabilidad humana). Corte Constitucional.
- European Commission. (2021). Proposal for a Regulation laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act). European Commission.
- Kroll, J. A., Huey, J., Barocas, S., Felten, E. W., Reidenberg, J. R., Robinson, D. G., & Yu, H. (2017). Accountable algorithms. University of Pennsylvania Law Review, 165(3), 633–705.
- Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
- Surden, H. (2019). Artificial intelligence and law: An overview. Georgia State University Law Review, 35(4), 1305–1333.
- Zarsky, T. (2016). The trouble with algorithmic decisions: An analytic road map to examine efficiency and fairness. Science, Technology, & Human Values, 41(1), 118–132.



