Читать книгу: «Nuevas dinámicas del derecho procesal», страница 2

Шрифт:

Referencias

Denti, V. (1989). La giustizia civile. Lezioni introduttive. Il Mulino.

Taruffo, M. (2009). Páginas sobre la justicia civil. Marcial Pons.

CAPÍTULO I
Prueba judicial e inteligencia artificial 1

Núria Borrás Andrés2

1.1 Introducción

Actualmente, estamos viviendo a nivel mundial una nueva revolución derivada de la anterior revolución digital, pero que sin duda podemos afirmar que tiene entidad propia y una mayor potencialidad para transformar a la sociedad (Schwab, 2016). En el epicentro de esta nueva revolución se encuentran fenómenos como la inteligencia artificial y el internet. Su materia prima es la información y su principal fuente de riqueza se halla en la velocidad y la capacidad de procesar ingentes cantidades de datos que se relacionan entre ellos en milésimas de segundo. La inteligencia artificial, de este modo, se abre puertas en el terreno de lo cognitivo y puede llegar a realizar funciones similares a las realizadas por la inteligencia humana.

El derecho no se ha quedado impasible ante esta realidad. La tercera revolución industrial tuvo un impacto en el proceso judicial mucho mayor que las dos anteriores: mejoró los mecanismos de notificación, introdujo novedades en la práctica de las pruebas, así como nuevas fuentes de prueba, y permitió la tramitación telemática de expedientes. Sin embargo, esta cuarta revolución industrial plantea inevitablemente un interrogante más provocador para el derecho procesal: la posibilidad de incorporar inteligencia artificial en el campo de lo que siempre habíamos considerado eminentemente humano del proceso, esto es, la búsqueda de la verdad de los hechos mediante la actividad probatoria y el razonamiento judicial.

1.2 La dinámica de la inteligencia artificial

Recientemente, ha empezado a tener presencia en el campo del derecho procesal el estudio de aplicaciones y sistemas de inteligencia artificial (Ashrafian, 2014; Barfield y Pagallo, 2018; Günsberg, 2019; Katyal, 2019; Levendowski, 2017; Nieva Fenoll, 2018a; Nissan, 2010). En el mismo momento en el que nos planteamos la aplicación de la inteligencia artificial al proceso judicial y, más concretamente al fenómeno probatorio, surge el deber de conocer en profundidad en qué consiste, en qué dinámica se basa su funcionamiento y cuáles son sus posibilidades y sus limitaciones.

En primer lugar, la inteligencia artificial no es un fenómeno ajeno a nuestra realidad. Es tan cotidiana en nuestras vidas como la oferta personalizada de un producto por internet, la traducción de un texto en línea o una búsqueda en Google Maps con la intención de conocer la ruta más rápida a un destino, en un momento concreto y con la estimación del flujo del tráfico a tiempo real. Cada una de estas operaciones es fruto de la recopilación de datos y de su procesamiento mediante un algoritmo predeterminado que establece las reglas mediante las cuales se debe relacionar la información para ofrecer un resultado lo más acertado posible.

En segundo lugar, es fundamental tener presente que las limitaciones de la inteligencia artificial en el campo del proceso judicial no son únicamente limitaciones de la técnica. La resolución de conflictos judiciales está compuesta por una vertiente de pura técnica jurídica, pero también de factores eminentemente humanos. La imposibilidad de aplicar algunos de estos sistemas a determinados momentos del proceso puede ser simplemente consecuencia de la falta de encaje entre las potencialidades de la inteligencia artificial y aquellos intereses que se busca satisfacer con un proceso judicial. En este sentido, tan importante resultará el estudio de la técnica como el debate filosófico acerca del carácter humano de la justicia. Para un análisis completo de la cuestión, no deberíamos centrarnos únicamente en el aspecto técnico de estos sistemas, sino también en la filosofía, la psicología, la sociología y el sistema de protección de derechos humanos.

1.2.1 Oportunidades de la inteligencia artificial

En muchas tareas las máquinas han alcanzado grados de eficacia y perfección ciertamente superiores a los humanos. Las bases de datos pueden llegar a contener miles de millones de datos, relacionarlos entre ellos a una velocidad nada comparable con la de un cerebro humano y, quizás más importante, no olvidarlos con el paso de los años (Barfield y Pagallo, 2018). La capacidad de almacenaje de los mecanismos de inteligencia artificial está, por tanto, fuera del alcance del cerebro humano, así como también del grado de acierto a la hora de relacionar y procesar toda esta información mediante la aplicación de la estadística.

En este sentido, la situación inicial en la que se encuentra un operador jurídico, por ejemplo, un abogado ante un proceso judicial, se puede mejorar por medio de un software que podría llegar a contener en sus bases de datos toda la jurisprudencia relacionada con el caso que se le plantea, además de datos estadísticos sobre las expectativas de éxito o fracaso de determinadas estrategias de defensa o argumentaciones jurídicas (Nissan, 2010). Existen también algunos sistemas como Alibi, capaces de generar hipótesis sobre los hechos en función de los datos que se le suministran, una herramienta concebida inicialmente con la idea de ayudar a los abogados de la defensa a plantear coartadas verosímiles (Nissan, 2001).

Dentro del propio proceso judicial tienen lugar muchas operaciones que consisten en la mera comprobación de supuestos fácticos para la producción posterior de un efecto jurídico determinado. Se trata de actos que en la práctica ya se realizan de forma mecánica por los operadores jurídicos, como admitir una demanda, dar traslado a las partes, comprobar la existencia de litispendencia, conceder o denegar determinadas medidas cautelares en el proceso civil o resolver cuestiones de competencia o jurisdicción, entre otras. De hecho, la gran mayoría de las actuaciones en un proceso judicial son de este tipo y es difícil percibir en ellas una intervención humana que no pueda ser automatizada por un sistema de inteligencia artificial (Nieva Fenoll, 2018a, pp. 33 y ss.).

1.2.2 Límites de la inteligencia artificial
1.2.2.1 Límites propios de la técnica

Al margen de todas las oportunidades que ofrecen los sistemas de inteligencia artificial, lo cierto es que no están libres de limitaciones. Un aspecto que interesa especialmente en el ámbito del derecho son los problemas derivados de los sesgos (biases) de las aplicaciones de inteligencia artificial, que han sido objeto de profundo análisis desde el campo de la informática y la ciencia computacional.

Se han detectado, en primer lugar, disfunciones relacionadas con la configuración de los algoritmos. En este proceso, los programadores deben decidir cuáles son aquellas variables en las que basarán sus algoritmos. Por ejemplo, en la elaboración de un algoritmo para el proceso de selección de una universidad se debe decidir a qué méritos se dará importancia o si algunos méritos obtendrán una ponderación mayor que otros. Se puede decidir, por tanto, que se seleccionará a personas con una calificación académica determinada, que presenten un mayor número de cartas de recomendación, acrediten nivel de idiomas o que hayan realizado algún tipo de acción social. De la correcta elaboración del algoritmo y la adecuada selección de las variables dependerá que los resultados arrojados sean los más cercanos al objetivo buscado. Pues bien, en la selección de estos datos pueden existir sesgos discriminatorios, como los que se han detectado en algunas aplicaciones usadas para la predicción del riesgo de reincidencia de algunos delincuentes, que otorgaban un porcentaje diferente en función de la clase social o la raza (Tolan et al., 2019).

También se han detectado sesgos históricos provocados por tomar en consideración premisas basadas en sucesos pasados interpretados erróneamente, con lo cual se perpetúa una tendencia fundamentada en presupuestos falsos. También se ha alertado el riesgo de usar, para la determinación de algunas variables, categorías de datos que, pese a no ser las óptimas ni las más representativas, son las más fáciles de conseguir por los sistemas de inteligencia artificial. Se produce, entonces, una simplificación de la realidad que podría conducir a resultados poco rigurosos (Roselli, Matthews y Talagala, 2019).

Una segunda problemática está vinculada con la calidad de la información al alcance de dichos sistemas. Es fundamental que los datos se actualicen constantemente porque la caducidad de la información utilizada o de una parte de ella supondría el desfase de los resultados. Asimismo, se ha advertido del peligro de trabajar con datos susceptibles de manipulación o ambiguos y se ha puesto de relieve que los sistemas de machine learning o aprendizaje automático tienden a establecer con frecuencia correlaciones y generalizaciones desviadas que se deben redirigir mediante mecanismos de corrección de los resultados (Roselli et al., 2019).

1.2.2.2 Conflictos con la dinámica del proceso judicial

El trato individualizado de los casos

En un proceso judicial existe un factor humano esencial que garantiza tanto el buen desarrollo del proceso como el respeto a las decisiones adoptadas: la confianza de los ciudadanos en el sistema de justicia. Los seres humanos desconfiamos de aquello que no conocemos o que es ajeno a nuestra especie. En consecuencia, es normal que mostremos reticencia a que un sistema desconocido resuelva asuntos que afectan considerablemente nuestra esfera personal, como un conflicto privado con terceros o la declaración de que hemos cometido un delito con la consecuente pena que pueda tener asociada.

Cuando se trata de asuntos de entidad, confiamos más en aquello cuyo funcionamiento conocemos que en algo desconocido, por mucho que nos aseguren que es altamente fiable. Además, el interés personal subyacente suscita en el ciudadano la necesidad de convencerse de que su caso ha sido tratado con la atención que merece, de forma individualizada y luego de tomar en cuenta todas las variables. El ciudadano confía en que un operador jurídico humano podrá entenderle mejor y atender a las circunstancias particulares de su caso que, en realidad, es lo único que le importa cuando acude a la justicia (Citron, 2007).

No se puede, por tanto, aplicar de forma precipitada sistemas de inteligencia artificial que los ciudadanos no entiendan en un proceso judicial porque se podría menoscabar su confianza en el sistema, que no es un tema menor en una democracia. El modo de reforzar esta confianza es, en primer lugar, demostrar a la ciudadanía, mediante una incorporación progresiva, que en muchos aspectos del proceso e incluso en determinados procesos civiles de poca complejidad, las máquinas presentan un grado de acierto mucho mayor que los seres humanos.

En segundo lugar, es fundamental identificar el elemento humano que realmente debe seguir existiendo en el proceso judicial, no únicamente porque transmite confianza a la ciudadanía, sino porque verdaderamente supone un valor añadido respecto a los sistemas de inteligencia artificial en lo que respecta a la corrección de las decisiones judiciales. Se trata de la necesidad de atender a las circunstancias de cada caso concreto y delimitar los hechos probados de forma individualizada. Los sistemas de inteligencia artificial tienen un grado de acierto elevado, pero funcionan por mecanismos estadísticos. En el análisis de cualquier situación, detectan los elementos presentes y los ponen en relación con casos anteriores con el fin de arrojar un resultado probable en función de lo que ha sucedido en otras ocasiones (Barfield y Pagallo, 2018).

En el proceso civil, esto podría ser conflictivo, pero en el proceso penal entran en juego, además, derechos fundamentales que son objeto de una elevada protección. Cuando se trata de sugerir una compra de un producto por internet a un cliente determinado, si la herramienta de inteligencia artificial no acierta en un caso concreto no tiene la más mínima importancia. Si se trata de la resolución de un caso penal o de la libertad de una persona, la aplicación de la estadística puede conducir a generalizaciones que vulneren la presunción de inocencia y restrinjan infundadamente derechos fundamentales de los ciudadanos.

Razonamiento abstracto y creatividad

En ocasiones, se ha podido llegar a pensar que en el momento en que las máquinas fueran capaces de procesar datos y extraer conclusiones lógicas y coherentes, podrían contener la inteligencia propia de los humanos y sustituirles en la mayoría de sus funciones. Esta afirmación, sin embargo, está todavía lejos de la realidad. La inteligencia artificial se basa sencillamente en el cruce de información, con sujeción plena a los algoritmos que la configuran y a los patrones estadísticos que es capaz de identificar con la información que tiene a su alcance. Por tanto, todo lo que el sistema pueda decidir, por muy complejo que sea y por muchas variables a las que atienda, jamás podrá ir más allá de las posibilidades para las que está programado, por lo cual actuaría sujeto a una suerte de principio de necesidad, con lo que eliminaría cualquier resquicio de libre albedrío (Bringsjord, Bello y Ferrucci, 2001).

En el proceso judicial existen muchas operaciones que se basan en una cadena de comprobación de hechos que se pueden corroborar fácilmente si se tiene la información adecuada en bases de datos fiables. Sin embargo, la automatización del proceso judicial adquiere mayor complejidad cuando se trata de averiguar y reconstruir un supuesto de hecho incierto. Nos referimos a la actividad que deben realizar los jueces para fijar los hechos verdaderamente acaecidos en un caso concreto mediante la práctica de la prueba y el razonamiento probatorio.

Esta actividad no se puede reducir a meras operaciones de comprobación y asociación guiadas por reglas fijadas anticipadamente, el juez debe esclarecer los hechos mediante los indicios y medios probatorios aportados por las partes que, además, la mayoría de las veces se dirigirán a dar soporte a hipótesis fácticas contradictorias. Como se desarrolla a continuación, para la realización de esta tarea no existen algoritmos genéricos que se puedan programar ex ante, se trata de una tarea con un alto grado de subjetivismo y en la que se requiere creatividad e imaginación, dos facultades que todavía están lejos de ser reproducidas por los mecanismos de inteligencia artificial (Barfield y Pagallo, 2018; Bringsjord et al., 2001; Nieva Fenoll, 2018a; Nissan y Martino, 2004).

1.3 La actividad probatoria en el proceso judicial
1.3.1 Evolución de la práctica y la valoración de la prueba

La práctica de la prueba, así como la valoración de los diferentes medios de prueba ha evolucionado a lo largo de la historia hasta llegar al sistema de valoración libre que rige en la actualidad en la mayoría de ordenamientos jurídicos de tradición continental. En el extremo opuesto a este sistema de libre valoración de la prueba se encuentra el sistema de prueba tasada o prueba legal, propio del sistema inquisitivo del Antiguo Régimen (Tomás y Valiente, 1967), caracterizado por una sistematización de la valoración probatoria que establecía el valor que se debía atribuir a los diferentes medios de prueba. Como explica el citado autor, en este sistema existía una gradación ternaria constituida por los conceptos de inocencia, semiculpabilidad y culpabilidad, a los que correspondía una paralela adecuación de medios probatorios.

Según este esquema, la inocencia era el resultado improbable del fracaso completo de la actividad inquisitiva, incluida la tortura sin confesión, o el improbable éxito positivo de la actividad probatoria del reo; la culpabilidad era el resultado del éxito probatorio de las pruebas con valor fijado legalmente; y la semiculpabilidad estaba asociada a la actividad probatoria de cargo incompleta, en caso de que existieran ciertos indicios de culpa o de que únicamente hubieran podido utilizar contra el reo medios probatorios imperfectos. En este caso de semiplena probatio, pese a no poder aplicar la pena ordinaria asociada a la culpabilidad, se podían imponer penas extraordinarias que vulneraban la presunción de inocencia.

Con el movimiento de la Ilustración en Europa, se produce un cambio de actitud respecto al derecho penal, motivada por un mayor humanitarismo (Beccaria, 1769; Foucault, 1975), que en el ámbito procesal se refleja en el rechazo de la arbitrariedad judicial y la desconfianza hacia el sistema inquisitivo y sus prácticas (Tomás y Valiente, 1987). Se sustituye este por un proceso mayoritariamente acusatorio y oral, se introduce la institución inglesa del jurado y, como consecuencia de esta tendencia, se acoge el principio de libre valoración de la prueba. En la Ley de Enjuiciamiento Criminal española (LECrim, 1882) este viraje se recoge, tanto en la exposición de motivos como en el artículo 741, que otorga libertad al juez para apreciar las pruebas según su conciencia.

Este principio de libre apreciación de las pruebas no significa que los jueces puedan valorarlas de forma arbitraria y seguir un proceso íntimo o secreto del que no tengan que dar cuenta. Gómez Orbaneja y Herce Quemada (1972), al glosar el citado artículo de la Ley de Enjuiciamiento Criminal española, explican que la “libre valoración no quiere decir que el juzgador sea libre de seguir su capricho, sus impresiones o sus sospechas, etc., sino supone una deducción lógica, partiendo de unos datos fijados con certeza” (p. 268).

1.3.2 Problemática del sistema de valoración legal de la prueba

En el debate acerca de la aplicación de la inteligencia artificial a la actividad probatoria, nos interesa fijarnos especialmente en una doble problemática del sistema de valoración legal de la prueba. En primer lugar, no existía una relación lógica y racional entre los requisitos probatorios exigidos y la verdad de las hipótesis que se pretendían confirmar. La culpabilidad y la inocencia eran determinadas en función de presupuestos formales que, en muchos supuestos, no confirmaban racionalmente la verdad de los hechos. Así, por ejemplo, el hecho de que dos testigos declararan lo mismo en juicio no tenía por qué significar que lo que afirmaran fuera verdad. Tampoco es necesariamente verdad que quien se confiesa culpable de un delito lo sea en realidad, mucho menos si ha sido previamente sometido a tortura (Nieva Fenoll, 2010).

En segundo lugar, estas reglas no se formulaban como criterios orientadores del razonamiento judicial, sino como pautas inflexibles, de modo que el caso estaba prácticamente sentenciado antes de empezar el juicio. Como consecuencia de lo anterior, el sistema de prueba legal dejaba fuera de juego el principio de presunción de inocencia y propiciaba las condenas con base en ficciones formales, lo que dejaba de lado la necesidad de obtener una convicción cierta acerca de la culpabilidad (Nieva Fenoll, 2010). Con todo ello, tampoco era necesaria la motivación de la sentencia, pues el juez no debía argumentar ningún proceso racional interno, sino que se podía limitar únicamente a dejar constancia de los indicios o medios probatorios aportados por la parte vencedora del litigio.

El abandono del sistema de prueba legal debe seguir siendo, en el proceso judicial, la dinámica predominante. Existen, sobre todo en el proceso civil, resquicios de prueba tasada que consisten en otorgar a determinados medios de prueba una privilegiada presunción de verdad. Sin embargo, también es cierto que se trata en general de presunciones iuris tantum, lo cual permite a las partes contradecir el contenido probatorio de estos medios de prueba en el contradictorio del juicio oral. La introducción de inteligencia artificial en la fase probatoria del juicio no debería significar un viraje hacia un nuevo sistema de prueba tasada. Para ello, se debe tener especial cautela para no reproducir, en el papel que se le otorga a estas herramientas en el proceso, las mismas dinámicas perversas que durante tanto tiempo se han criticado en relación con los sistemas irracionales e inflexibles de prueba legal.

En primer lugar, los criterios que los mecanismos de inteligencia artificial utilicen para auxiliar a los jueces en la valoración probatoria deben estar contrastados y avalados por las ciencias propias de cada uno de esos medios de prueba —como se muestra más adelante— para que las conclusiones que se alcancen sean lo más lógicas posible. En segundo lugar, en el campo del razonamiento probatorio no se pueden asumir automáticamente los resultados arrojados por las aplicaciones de inteligencia artificial, sino que estos deben estar sujetos a una posterior valoración del juez, que los usará en su razonamiento como datos orientativos. Las potencialidades de la inteligencia artificial se deben integrar plenamente en el campo de la valoración libre de la prueba, y se debe buscar en ellas la mejora, del razonamiento libre y racional de los jueces, para dotarlo de una mayor precisión y sistematización, pero en ningún caso menoscabarlo o sustituirlo.

Жанры и теги
Возрастное ограничение:
0+
Объем:
723 стр. 39 иллюстраций
ISBN:
9789585473447
Издатель:
Правообладатель:
Bookwire
Формат скачивания:
epub, fb2, fb3, ios.epub, mobi, pdf, txt, zip

С этой книгой читают