Our Recent Posts

Archive

Tags

Los jueces eléctricos.¿Podría la inteligencia artificial reemplazar a los jueces humanos?


El impacto de la inteligencia artificial no escapa al dominio legal. Partes importantes del oficio de abogado están siendo reemplazadas por aplicaciones que permiten encontrar información jurídica, ayudas para ejecutar una due diligence, o incluso redactar un contrato[1].


Tenemos ya ejemplos de inteligencias artificiales que han sustituido a seres humanos en funciones propias de un consejero legal, como el caso de Joshua Browder de la Universidad de Standford, que ha creado un chatbot que permite impugnar directamente violaciones de tráfico de forma exitosa. También tenemos a Ross, una inteligencia artificial que es capaz de dar consejos legales con el expertise similar al de un abogado y que ya trabaja en un despacho[2].


Queda claro que la posibilidad de tener inteligencias artificiales que sean "abogados" abren la promesa de que cualquier persona, sin importar sus recursos económicos tengan la posibilidad de acceder a una buena representación legal.


Esta aplicación de algoritmos que aprenden a diversas tareas de la actividad legal nos lleva a preguntarnos si las mismas pueden tener alguna aplicación para la juzgar asuntos en lugar de seres humanos.


Es necesario distinguir entre el uso de algoritmos para tener mejores datos al momento de juzgar, como podría ser condiciones de medición de riesgo para el cumplimiento de alguna medida cautelar, como la prisión preventiva.


También podemos pensar en algoritmos que permitan una búsqueda eficiente de precedentes, tal y como lo hace en la actualidad el motor de búsqueda del Semanario Judicial de la Federación. O incluso pensar en algoritmos capaces de predecir con similitud los posibles resultados de casos sometidos a la jurisdicción de la Suprema corte de Estados Unidos[3] o de la Corte Europea de Derechos Humanos[4].


La inteligencia artificial que sería utilizable para resolver problemas jurídicos parte del proceso de aprendizaje de máquina (machine learning) mediante el cual se otorgan ciertos parámetros de decisión sobre los cuales adquiere experiencia y corrige. En pocas palabras, a mayor número de datos que son procesados, mejor decisiones posibles. Se trata de intelectos sintéticos que son capaces de “aprender” en atención a los datos que le son entregados y a su capacidad de retroalimentarse de los mismos.


En este sentido, parecería que la posibilidad de tener inteligencias artificiales que pudiesen juzgar asuntos no es descabellada, tomando en consideración que es posible reproducir con un increíble grado de detalle las iteraciones necesarias para llegar a una solución correcta desde un punto de vista jurídico.


La mera posibilidad de aplicar hipótesis normativas a ciertos hechos podría quitar mucho trabajo que es mecánico (tal y como sucede con cierto tipo de jurisdicciones como la laboral o administrativa en la cual se revisan cuestiones relacionadas con cálculos de diversos tipos de prestaciones) y reservar la intervención humana para casos más complejos.


Ahora bien, si partimos de la base de que una inteligencia artificial es capaz de ponderar diversos parámetros al momento de tomar un decisión, es necesario considerar qué tipo de jurista será nuestro juez: ¿un positivista, un realista, un hércules dworkiniano? Ziyaad Bhorat lo advierte al decir que el tipo de juez que queramos requerirá de un diverso tipo de programación para producir los efectos deseados.


Así, un intelecto sintético positivista podría ser un algoritmo un ejercicio mediante el cual se debe identificar la regla de derecho aplicable al caso concreto, mientras que un juez sintético originalista utilizará un algoritmo de lenguaje natural.


Podríamos además pensar que la propia inteligencia artificial, mediante el proceso de aprendizaje constante al que estaría sometido, sería capaz de reproducir criterios morales que atiendan al entorno social y sus valores subyacentes.


Es necesario considerar cuestiones relativas a la autonomía de estos jueces sintéticos. La primera es que en atención a la información que es procesada y los parámetros de programación, la inteligencia artificial reproduzca perjuicios que no son admisibles al momento de juzgar.


No obstante, es una cuestión superable en atención a la forma en la que se programa, incluyendo ciertas salvaguardas para evitar este tipo de comportamiento aberrante.


Asimismo, siempre existe el riesgo de la corrupción de la inteligencia artificial por la intervención de un tercero, ya sea hackers, un virus u otro tipo de intrusión cibernética[5].


Por otra parte, existe el problema ético advertido por Weizenbaum, relativo a que se trata de juzgar a personas, por lo que juzgarlas por una máquina es poco digno y devalúa a la persona que está siendo juzgada[6].


En contra de esta automatización en la toma de decisiones, la Unión Europea contempla dentro de su regulación de protección a datos, el derecho a no ser sujeto a una decisión gubernamental que derive exclusivamente de un proceso automatizado en el que no haya existido la intervención de un ser humano.


Esto parece ser una regla con múltiples aplicaciones en un futuro, si tomamos en cuenta que muchas funciones de aplicación y verificación de normas regulatorias se hacen por medio de máquinas que procesan información, tal y como sucede con las fotomultas cuya constitucionalidad ha sido cuestionada[7].


[1] Ziyaad Bhorat. https://www.opendemocracy.net/transformation/ziyaad-bhorat/do-we-still-need-human-judges-in-age-of-artificial-intelligence

[2]http://www.telegraph.co.uk/technology/2017/03/07/robot-lawyer-overturned-160000-parking-tickets-now-helping-refugees/

https://www.vix.com/es/btg/tech/63035/conoce-a-ross-el-primer-abogado-robot-que-defiende-a-sus-clientes-utilizando-inteligencia-artificial

[3] http://www.sciencemag.org/news/2017/05/artificial-intelligence-prevails-predicting-supreme-court-decisions

[4] http://www.ucl.ac.uk/news/news-articles/1016/241016-AI-predicts-outcomes-human-rights-trials

[5] https://anounceofeleganceagallonofsnark.wordpress.com/2016/11/24/hacked-justice-artificial-intelligence-in-administering-the-law/

[6]J.Weizenbaum,Computer Power and Human Reason: From Judgment To Computation (W. H. Freeman, San Francisco,1976)

[7] http://www.elfinanciero.com.mx/nacional/inconstitucional-aplicar-fotomultas-en-la-cdmx-juez.html

©2017 by Legal Lab. Proudly created with Wix.com