

Sobre las bases normativas y el impacto real de la utilización de algoritmos predictivos en los ámbitos judicial y penitenciario.
Varios investigadores del proyecto participan en la obra colectiva: La transformación algorítmica del sistema de justicia penal.
En la primera parte, que lleva va por título «Algunas bases para comprender la justicia algorítmica y su actual problematización» podemos encontrar el trabajo de Jesús Aguerri el cual analiza el debate actual entre el desarrollo de modelos predictivos basados en datos y los últimos avances en el campo de la inferencia causal que han vuelto a colocar la teoría en primer plano.
La segunda parte «Usos de soluciones algorítmicas en el sistema de justicia penal» podemos encontrar el trabajo de Patricia Faraldo analiza la idoneidad y viabilidad legal del uso de la tecnología de reconocimiento facial automático por parte de las Fuerzas y Cuerpos de Seguridad en España y el trabajo de Jesper Ryberg que indaga en el momento en que sería éticamente aceptable reemplazar a un juez humano con un algoritmo capaz de emitir sentencias, explorando los criterios de sustitución justificada, como el criterio Turing y el criterio teórico penal.
En la sección final, «Límites y perspectivas críticas al uso de los algoritmos predictivos» participan Fernando Miró que analiza las actitudes hacia la posible adopción de estas herramientas y propone formas de superar visiones extremas, ya sean utópicas o distópicas. Por otro lado, Kelsi Barkway y Kelly Hannah-Moffat examinan cómo las empresas de software policial predictivo emplean el lenguaje de los algoritmos éticos para promocionar y renombrar sus tecnologías, sugiriendo que esto enmascara la verdadera idoneidad y limitaciones en contextos específicos. Pere Simón plantea la hipótesis de que los principios y garantías jurídicas tradicionales deben ser reinterpretados ante la nueva realidad algorítmica de los sistemas de Inteligencia Artificial en Justicia y Vigilancia Penal. Finalmente, Pablo Cerezo, Flavia Roteda y Francisco J. Castro-Toledo exploran los desafíos vinculados con posibles malos usos de la Inteligencia Artificial en el ámbito policial en el contexto de la investigación y desarrollo en Europa, proponiendo medidas para abordar estos riesgos.

El investigador principal, Fernando Miró, coordina el monográfico “Digitalización y algoritmización de la justicia”.
En este monográfico encontramos el trabajo de diferentes investigadores del proyecto. En primer lugar, el trabajo publicado por Sandra Pérez Domínguez y Pere Simón Castellano abordan empíricamente el análisis de las actitudes y percepciones ante el uso de herramientas algorítmicas en el ámbito judicial y las variables relacionadas con la reticencia a este. Los investigadores Mario Santisteban y Jesus C. Aguerri participan en el número especial con un estudio empírico y jurídico-crítico donde analizan la capacidad potencial de ChatGPT-4 para detectar discursos encuadrables dentro del «mal denominado» discurso de odio. Finalmente, la investigadora Beatriz López Lorca analiza la digitalizacion de las prisiones mediante la identificación de los propósitos objetivos que podrían respaldar la utilización de la tecnología, así como los desafíos que deben considerarse para lograrlos.
Además, se publican otros trabajos interesantes sobre el efecto de la digitalización en el razonamiento jurídico, el concepto y alcance de la idea de predicción y la crítica al uso de estas metodologías o la descripción y también del análisis crítico de la herramienta VioGen.

El investigador Pere Simón Castellano publica la monografía «La evaluación de impacto algorítmico en los derechos fundamentales». Donde aborda la necesidad de criterios sólidos para el diseño y uso de herramientas normativas en el desarrollo de sistemas de inteligencia artificial. analiza detalladamente la naturaleza jurídica de las evaluaciones de impacto algorítmico, destacando cómo estas prácticas transfieren la responsabilidad y la obligación de ponderar a empresas y entidades gubernamentales. Además, contextualiza la relevancia de estas evaluaciones en un entorno normativo que se enfoca en el riesgo, tal como propone la Unión Europea. La monografía plantea el desafío para los juristas: la pronta aceptación de este nuevo paradigma y la comprensión de los efectos del principio de responsabilidad proactiva. Asimismo, destaca la necesidad de establecer criterios jurídicos sólidos para determinar los elementos pertinentes en estas evaluaciones y la interpretación adecuada de sus resultados.
En su conjunto, representa una oportunidad valiosa para entablar un debate crucial en el ámbito de la inteligencia artificial y los derechos fundamentales, subrayando la importancia de esta reflexión en el desarrollo normativo futuro.

La investigadora Puerto Solar Calvo ha publicado el artículo «Pros y Contras de la IA en el medio penitenciario: Ejemplos y Riesgos». En él, expone que en una sociedad cada vez más aversa al riesgo, la inteligencia artificial está ganando terreno. A pesar de la reforma reglamentaria reciente que introduce nuevas tecnologías en las prisiones, el artículo plantea incertidumbres sobre su implementación sistemática en estos entornos. Destaca la importancia de integrar la tecnología en la reintegración social de las personas privadas de libertad, aunque enfatiza que no todo uso de la tecnología es necesariamente beneficioso. Finalmente, subraya la necesidad de priorizar la perspectiva humana en la ejecución de las condenas en este contexto.

El investigador Pere Simón Castellano publica en el libro «El Derecho Público de la inteligencia artificial» el trabajo “Allende una Teoría General de las Garantías Jurídicas para una Inteligencia Artificial confiable” donde propone una teoría general de las garantías jurídicas para una IA confiable.

Los investigadores Francisco J. Castro-Toledo, Pablo Cerezo y Ana B. Gómez Bellvís han publicado el artículo «Scratching the structure of moral agency: insights from philosophy applied to neuroscience». Un trabajo que explora la convergencia entre la neurociencia y la filosofía, haciendo hincapié en áreas como la filosofía moral y la filosofía de la mente. Además, abordan el debate en torno a cuestiones filosóficas clásicas, como el libre albedrío y la motivación moral, en el contexto de los avances neurocientíficos, generando tensiones entre quienes ven a la neurociencia como una posible solución definitiva y aquellos escépticos sobre su alcance.

Los investigadores Francisco J. Castro-Toledo, Fernando Miró Llinares y Jesús C. Aguerri presentan el estudio «Data-Driven Criminal Justice in the Age of Algorithms: Epistemic Challenges and Practical Implications». Este trabajo aborda el debate en torno al papel de la causalidad en los sistemas predictivos del ámbito penal y se discuten los argumentos a favor del uso ponderado de teorías y algoritmos basados en causalidad en contraposición a los que se basan únicamente en correlaciones.

El investigador Pere Simón Castellano publica “Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial” . En el Pere Simón explora el desafío que enfrentan los sistemas de inteligencia artificial respecto a los derechos individuales. Propone una taxonomía de garantías para abordar este problema, enfatizando la necesidad de basarse en valores humanos fundamentales.
Además, aboga por un modelo de co-regulación que incluya evaluaciones de impacto para mitigar riesgos en el uso de estas tecnologías. Esta propuesta se compone de cinco categorías principales y sus respectivas subcategorías, cuya relevancia depende del contexto y la naturaleza específica de la tecnología utilizada.
