Читать книгу: «Nuevas dinámicas del derecho procesal», страница 4

Шрифт:

1.4.2.3 La prueba pericial

La valoración de los informes periciales es otro punto altamente conflictivo del proceso judicial. Su complejidad radica en el hecho de que estos medios probatorios contienen información acerca de elementos que pertenecen a ciencias ajenas al derecho y que, por tanto, es necesario que un experto en la materia verifique adecuadamente. Los informes económicos, por ejemplo, son frecuentes en litigios civiles o litigios penales relacionados con delitos económicos. También son frecuentes los informes médicos, balísticos, químicos y, en realidad, de cualquier ciencia que pueda arrojar luz al caso. El asunto se puede complicar, a su vez, cuando se aportan al juicio dictámenes periciales de una parte que contradicen a los aportados de la otra parte. El juez se encuentra, pues, ante materias que no conoce anticipadamente y la regulación procesal es, nuevamente, poco clarificadora en este punto (Zubiri, 2004). La LECrim (1882), en su artículo 348, remite nuevamente, a las reglas de la sana crítica para la valoración de los dictámenes periciales.

En realidad, nos encontramos ante una problemática similar a la descrita para la prueba documental, en la que el juez tiene una doble necesidad: acreditar la fiabilidad del dictamen y, posteriormente, comprender su contenido para usarlo como elemento acreditativo de la hipótesis sobre los hechos. Nuevamente, la inteligencia artificial puede auxiliar al juez en la determinación del grado de fiabilidad del dictamen pericial. Para ello, la doctrina ha estado usando los criterios establecidos por la doctrina Daubert, fijada por el Tribunal Supremo de los Estados Unidos, y que establece algunos criterios que pueden ayudar al juez a valorar si la técnica empleada por el perito al realizar su dictamen cumple con los requisitos de calidad propios del método científico. Son criterios que han sido muy recomendados por la doctrina, aunque lo cierto es que su comprobación requiere una búsqueda laboriosa para la que los jueces, muchas veces no tienen conocimiento científico suficiente (Nieva Fenoll, 2018b, p. 16). De este modo, a no ser que los informes sean muy controvertidos o se contradigan con los presentados por la parte contraria, la tónica suele ser que los jueces asumen como verdad los hechos contenidos en el dictamen pericial.

Como explica Nieva Fenoll (2018a), un sistema de inteligencia artificial con información suficiente en su base de datos podría comprobar el cumplimiento de estos estándares de calidad de forma mucho más eficiente y, de nuevo, ilustrar al juez con un porcentaje acerca de la fiabilidad del dictamen pericial. Tanto la valoración del currículum del perito —al menos en términos cuantitativos de producción científica— como la comprobación de los criterios Daubert, podrían ser automatizadas por un sistema de inteligencia artificial. Además, en este campo, la automatización no serviría únicamente para mejorar la valoración del juez, sino también para introducir de forma generalizada la comprobación de la calidad de los dictámenes periciales en el uso forense.

1.4.2.4 La propia inteligencia artificial como objeto de prueba

En el proceso penal los medios de investigación policial son cada vez más tecnológicos e incluyen sistemas de inteligencia artificial, de modo que será frecuente la introducción como medios probatorios de documentos o datos generados por estas herramientas. Además, encontraremos cada vez más referencias a la inteligencia artificial en los informes periciales, puesto que muchas ciencias ya utilizan estos sistemas tecnológicos para sus tareas cotidianas.

En realidad, ningún problema añadido debería plantear este factor si se tiene en cuenta que, al fin y al cabo, se trata de prueba tecnológica que será introducida en la mayoría de los casos bajo la forma de prueba documental. Por tanto, la problemática relacionada con la valoración de esta prueba es muy similar a la que se plantea hoy en día en los tribunales, la prueba tecnológica, que no es poca. Acerca de ello se han realizado profundos estudios recientemente (Arrabal Platero, 2019) y únicamente nos resta decir que será necesario que los jueces no se dejen llevar por un falso deslumbramiento antes estos medios probatorios y apliquen de igual forma los criterios valorativos hasta ahora expuestos para confirmar la calidad de los sistemas de inteligencia artificial y de los resultados que estos aportan.

En la valoración de los medios de prueba que incluyan inteligencia artificial será muy necesario llevar a cabo un análisis previo acerca de la licitud y validez de su obtención, puesto que algunas pruebas tecnológicas invaden campos propios de la privacidad de las personas como la geolocalización, el uso privado de herramientas informáticas o las comunicaciones telemáticas. En segundo lugar, será muy recomendable aportar un informe pericial informático, junto con la prueba, que muestre al juez el funcionamiento de la herramienta de inteligencia artificial que ha sido fuente de la prueba, así como la calidad de los medios técnicos usados, el grado de fiabilidad de la técnica y la conservación de la cadena de custodia. Este último punto es especialmente importante si se tiene en cuenta que todos los expertos informáticos coinciden en afirmar que los datos tecnológicos tienen un importante grado de volatilidad y son altamente susceptibles de ser manipulados.

Finalmente es importante que, teniendo en cuenta la falta de formación de los jueces en estos campos, los datos aportados por pruebas generadas con inteligencia artificial sean contrastados y corroborados por otros medios de prueba para otorgarles una mayor credibilidad, a no ser que se pueda justificar que la técnica usada es infalible hasta el punto de no dejar dudas en la mente del juez acerca del extremo que confirma la prueba. Todo ello deberá ser motivado con precisión por el juez en la sentencia.

1.5 Conclusiones

En la fase probatoria del proceso judicial y la elaboración del razonamiento probatorio por el juez se encuentra el núcleo cognitivo del proceso judicial. Cuando entramos en el campo de la reconstrucción de los hechos mediante esta actividad, la dificultad de traducir los criterios valorativos de las pruebas, así como las reglas del razonamiento judicial, a términos numéricos o estadísticos nos conduce a la imposibilidad de sustituir estas tareas por herramientas de inteligencia artificial.

El sector con más posibilidades de aplicación de la inteligencia artificial en la actividad probatoria se encuentra en la automatización de los criterios para la valoración previa de la fiabilidad de los medios de prueba. Para esta tarea, es conveniente contar con el conocimiento de algunas ciencias que pueden aportar criterios objetivos cuya comprobación, en muchos casos, la podrá realizar un sistema de inteligencia artificial. De este modo, la experiencia de los jueces, hasta ahora basada muchas veces en sesgos y prejuicios, se podrá enriquecer con un contenido mucho más científico y contrastado.

Es innecesario sustituir al ser humano en todas las tareas que realiza. La ciencia debe estudiar cuáles son aquellos campos en los que la introducción de la inteligencia artificial aporta un verdadero añadido en cuanto a eficiencia y calidad a las tareas que hasta ahora lleva a cabo un ser humano. En el campo del derecho procesal este debería ser el único criterio, puesto que la justicia debe seguir conservando la humanidad necesaria para fomentar la confianza de los ciudadanos en el sistema. En un proceso judicial la intervención humana garantiza que las circunstancias de cada caso se traten con singularidad y no se apliquen decisiones a un supuesto, simplemente por su similitud con otros casos anteriores. Se proporciona a los ciudadanos de este modo la certeza de que, en el proceso jurisdiccional, se prestará la atención debida a todas las particularidades de su caso cuando esta individualización sea necesaria para el óptimo esclarecimiento de los hechos.

Referencias

Arrabal Platero, P. (2019). La prueba tecnológica: aportación, práctica y valoración. Tirant lo Blanch.

Ashrafian, H. (2014). AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics. Science and Engineering Ethics, 21(1), 29-40.

Barfield, W. y Pagallo, U. (2018). Research Handbook on the Law of Artificial Intelligence.

Beccaria, C. (1769). Tratado de los delitos y de las penas.

Beltrán, J. F. (2007). Los estándares de prueba en el proceso penal español. Cuadernos Electrónicos de Filosofía del Derecho, 15, 1-6.

Bringsjord, S., Bello, P. y Ferrucci, D. (2001). Creativity, the Turing test, and the (better) Lovelace Test. Minds and Machines, 11(1), 3-27.

Citron, D. K. (2007). Technological Due Process. Washington University Law Review, 85(6), 1249-1313.

Ferrer Beltrán, J. (2005a). Prueba y verdad en el derecho (1a ed.). Marcial Pons Ediciones Jurídicas y Sociales.

Ferrer Beltrán, J. (2005b). Prueba y verdad en el derecho (2a ed.). Marcial Pons Ediciones Jurídicas y Sociales, S.A.

Ferrer Beltrán, J. (2007). La valoración racional de la prueba. Marcial Pons.

Foucault, M. (1975). Vigilar y castigar. Siglo XXI Editores.

Gascón Abellán, M. (2005). Sobre la posibilidad de formular estándares de prueba objetivos. Cuadernos de Filosofía del Derecho, 28, 127-139.

Gobierno de España. (1882, 14 de septiembre). Ley de Enjuiciamiento Criminal. BOE 260 https://www.boe.es/buscar/act.php?id=BOE-A-1882-6036

Gómez Orbaneja, E., y Herce Quemada, V. (1972). Derecho Procesal Penal (7a ed.). Artes Gráficas y Ediciones.

González Lagier, D. (2003). Hechos y argumentos (Racionalidad epistemológica y prueba de los hechos en el proceso penal) (I). Jueces Para La Democracia, 46, 17-26. https://dialnet.unirioja.es/servlet/articulo?codigo=409550

González Lagier, D. (2018). Prueba y argumentación (¿Es posible formular un estándar de prueba preciso y objetivo? Algunas dudas desde un enfoque argumentativo de la prueba). Congreso Mundial de Razonamiento Probatorio. Girona.

Günsberg, P. (2019). Some Thoughts on Artificial Intelligence ( AI ). Systems and Responsibility. 24(1), 1-9. https://www.researchgate.net/publication/330825212_Some_Thoughts_on_Artificial_Intelligence_AI_Systems_and_Responsibility

Katyal, S. K. (2019). Private Accountability in the Age of Artificial Intelligence. UCLA Law Review, 54, 56-141. https://pdfs.semanticscholar.org/2c47/5cba8da2947ddcbcfb94c2e036e2fc025b88.pdf

Levendowski, A. (2017). How Copyright Law Can Fix Artificial Intelligence’s Implicit Bias Problem. Washington Law Review, 579-630.

Manzanero, A. L., y González, J. L. (2015). Modelo holístico de evaluación de la prueba testifical (Helpt). Papeles del Psicólogo, 36(2), 125-138. http://www.papelesdelpsicologo.es/pdf/2568.pdf

Manzanero, A. L., y Petisco, J. (2019). Memoria de los testigos y detección del engaño. Delta.

Nieva Fenoll, J. (2010). La valoración de la prueba. Marcial Pons Ediciones Jurídicas y Sociales.

Nieva Fenoll, J. (2016). La razón de ser de la presunción de inocencia. Indret: Revista para el Análisis del Derecho, (1), 12.

Nieva Fenoll, J. (2018a). Inteligencia artificial y proceso judicial. Marcial Pons, Ediciones Jurídicas y Sociales, S.A.

Nieva Fenoll, J. (2018b). Repensando Daubert: La Paradoja de la Prueba Pericial. Civil Procedure Review, 9(1), 11-26. http://www.civilprocedurereview.com/?option=com_content&view=article&id=401

Nissan, E. (2001). The jama legal narrative. Part II: A foray into concepts of improbability. Information and Communications Technology Law, 10(1), 39-52. https://www.academia.edu/27621155/The_Jama_Legal_Narrative_Part_II_A_Foray_into_Concepts_of_Improbability

Nissan, E. (2010). Computer applications for handling legal evidence, police investigation and case argumentation. Springer International Publishing AG.

Nissan, E., y Martino, A. A. (2004). The construction of judicial proof: a challenge for artificial intelligence modelling. Applied Artificial Intelligence, 18(3-4).

Roselli, D., Matthews, J., y Talagala, N. (2019). Managing bias in AI. Companion Proceedings of the 2019 World Wide Web Conference, 10.

Schwab, K. (2016). La cuarta revolución industrial. Editorial Debate.

Taruffo, M. (2002). La prueba de los hechos. Editorial Trotta S.A.

Taruffo, M. (2010). Simplemente la verdad. Marcial Pons, Ediciones Jurídicas y Sociales, S.A.

Tolan, S., Miron, M., Gómez, E., y Castillo, C. (2019). Why machine learning may lead to unfairness: Evidence from risk assessment for juvenile justice in Catalonia. Proceedings of the 17th International Conference on Artificial Intelligence and Law (pp. 83-92). ICAIL. https://chato.cl/papers/miron_tolan_gomez_castillo_2019_machine_learning_risk_assessment_savry.pdf

Tomás y Valiente, F. (1967). Historia del Derecho Penal de la Monarquia absoluta (Siglos XIII a XVIII). Tecnos.

Tomás y Valiente, F. (1987). “In dubio pro reo”, libre apreciación de la prueba y presuncion de inocencia. Revista Española de Derecho Constitucional, (20), 9-34. https://dialnet.unirioja.es/servlet/articulo?codigo=79353

Turing, A. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433-460.

Zubiri, F. (2004). ¿Qué es la sana crítica? La valoración judicial del dictamen experto. Jueces Para La Democracia, 50, 52-62.

Notas

1 Este capítulo de investigación es resultado de la actividad investigativa desarrollada por la autora con relación a la prueba en la Universidad de Barcelona, España.

2 Graduada en Derecho, magíster en Estudios Jurídicos Avanzados y posgrado en Derecho Público. Investigadora del Departamento de Derecho Procesal, Administrativo y Financiero, Universidad de Barcelona, Barcelona, España. Investigadora visitante en la Universidad de Leiden y la Universidad de Múnich. nborras@ub.edu.es Orcid: https://orcid.org/0000-0002-7428-6545

CAPÍTULO II
Biotecnología y derecho procesal en la cuarta revolución industrial 1

Liliana Damaris Pabón Giraldo2

2.1 Introducción

En la actualidad se presentan transformaciones más rápido que de costumbre en diversos ámbitos. Esta situación se debe a la cuarta revolución industrial (en adelante C4IR), término al cual se han referido los economistas y se acuña a Klaus Schwab, fundador del Fondo Económico Mundial, quien ha manifestado que esta implica una transformación tecnológica que impacta a la sociedad, pues su estrecha relación genera consecuencias.

Para Schwab la C4IR está marcada por una aceleración tecnológica, cuyo impacto se da en todas las prácticas humanas y ningún sector puede escapar a ello, puesto que el cambio digital implicará la fusión de tecnologías y generará un efecto transversal en todas las disciplinas y borrará límites en la esfera física, digital y biológica. Temas frente a los cuales no sabe si el mundo está preparado (Schwab, 2016b).

Lo expuesto trae como consecuencia cambios sociales y económicos, y no existe un marco conceptual que ayude a que las personas nos anticipemos a estos. Es así como el Foro Económico Mundial, en cabeza de su presidente, establece que es necesario tener en cuenta cuatro principios que deben guiar la definición e implementación de tales políticas: (i) pensar en sistemas, no en tecnologías aisladas; (ii) oponerse a la visión que dictamina que el progreso está predeterminado. Para ello, se debe educar y empoderar a los individuos, a fin de que dominen las tecnologías con fines claros, ya que es necesario que se genere un control de las nuevas tecnologías; (iii) diseñar tecnologías y sistemas nuevos con visión de futuro, esto implica integrar tecnologías transformadoras en sistemas sociales y económicos; y (iv) se deben tener en cuenta las consideraciones sociales y éticas para contribuir a un mundo más seguro e integrado (Schwab, 2016c). Estos principios requieren de colaboración conjunta y trabajo colaborativo, participación activa de la sociedad, autoridades, gobiernos, entre otros.

Uno de los temas que ha impactado la C4IR es la biología y en ella, la biotecnología, esto es, la tecnología al servicio de la ciencia. En ella se han implementado nuevas tecnologías o tecnologías emergentes a fin de dar respuesta a los problemas que atañen a la sociedad. Un ejemplo de ello es la búsqueda de una vacuna para el VIH, medicamentos para el cáncer, trasplantes, la clonación, etc. Y hoy se observa —con la pandemia de la COVID-19, entendida como “enfermedad epidémica que se extiende a muchos países” (RAE, 2019)—, pues a efectos de evitar la mayor cantidad de contagios posibles, diagnosticar, tomar decisiones de salud pública, hacer perfilamiento y seguimiento, se han creado sistemas computacionales o tecnológicos que hacen que los datos fluyan más rápido para que sirvan de soporte a la ciencia y así proteger la salud de las personas. El Laboratorio de Innovación e Inteligencia Artificial [Ialab] (2020b) menciona, entre otras, las siguientes: Korea Spatial Information & Community, Stop COVID 19 Cat, Self-quarantine Safety Protection, Alipay Healh Code, Corona 100, Private Kit: Safe Pat, Trace Together, CoronaMadrid, Salud en Sonora, Midis App Salud, Coronabot, CoronApp, DoctorgatesApp, entre otros. Así las cosas, surgen en esta C4IR tecnologías disruptivas que ofrecen información en tiempo real. Sin embargo, no son estos los únicos temas de los cuales se ocupa la biotecnología, pues su marco de acción es mucho más amplio.

Si bien es claro que esta revolución es vital para el progreso y que los individuos se deben empoderar a fin de hacerle frente a los nuevos desafíos, la C4IR implica nuevos marcos científicos, tecnológicos, económicos y sociales, con los que actualmente no se cuenta o se encuentran aún incipientes. Frente al tema Takenata (2020) expresa que, “el éxito de la cuarta revolución industrial y de la transición a la Sociedad 5.0 depende de que podamos suavizar la regulación y actualizar nuestros sistemas legales”. Esto quiere decir que, dentro de las diversas problemáticas que encierra la C4IR, —entre ellas la automatización, el desplazamiento de lo humano por lo digital, la desigualdad, la concentración de beneficios, entre otros (Schwab, 2016a)—, existe además un atraso en el marco jurídico o legal que regule de forma clara los nuevos surgimientos, responsabilidades producto de su desarrollo y aplicación o vulneración de derechos por su aplicabilidad, lo que puede hacer que su crecimiento se vea truncado. Por ello, hoy se puede afirmar —sin temor a equivocaciones— que el derecho se ha visto superado por la biotecnología (Cambrón, 2003).

Lo anterior da lugar a los siguientes interrogantes: ¿Qué es la biotecnología y qué relación tiene esta con el derecho, y específicamente con el derecho procesal? ¿Cuáles desafíos trae para el derecho procesal la biotecnología en la era de la C4IR? ¿Cómo garantizar los derechos de las personas vulnerados hoy por el uso de la biotecnología en la C4IR? Estos son temas frente a los cuales se efectúa un acercamiento en este escrito, pero este no pretende dar respuesta a cada una de ellas, ya que requieren de un desarrollo específico.

En ese orden de ideas, este trabajo se divide en tres acápites, así: (i) se parte de una aproximación a la C4IR, de qué se ocupa esta y qué implicaciones tiene en diversos ámbitos; (ii) se hace referencia de forma específica a la biotecnología, lo que esta significa, para qué se aplica y su impacto en la C4IR; se finaliza (iii) con la mención de algunas problemáticas y desafíos que generan los avances de la biotecnología para el derecho procesal en el marco de la C4IR.

Жанры и теги
Возрастное ограничение:
0+
Объем:
723 стр. 39 иллюстраций
ISBN:
9789585473447
Издатель:
Правообладатель:
Bookwire
Формат скачивания:
epub, fb2, fb3, ios.epub, mobi, pdf, txt, zip

С этой книгой читают