Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 169
IMPACTO Y DESAFÍOS DE LA INTELIGENCIA ARTIFICIAL EN EL SISTEMA
PROCESAL PENAL ECUATORIANO: HACIA UNA JUSTICIA PREDICTIVA,
TRANSPARENTE Y GARANTISTA
THE IMPACT AND CHALLENGES OF ARTIFICIAL INTELLIGENCE IN THE
ECUADORIAN CRIMINAL PROCEDURE SYSTEM: TOWARD A PREDICTIVE,
TRANSPARENT, AND GUARANTEE-BASED JUSTICE
Autores: ¹Allynton Rigoberto Corrales Castellano, ²Samuel Morales Castro, ³Duniesky Alfonso
Caveda.
¹ORCID ID: https://orcid.org/0009-0008-2687-5485
²ORCID ID: https://orcid.org/0000-0003-1753-2516
3ORCID ID: https://orcid.org/0000-0001-7889-8066
¹E-mail de contacto: arcorralesc@ube.edu.ec
²E-mail de contacto: samuel.morales-externo@unir.net
³E-mail de contacto: dalfonsoc@ube.edu.ec
Afiliación: ¹*³Universidad Bolivariana de Ecuador, (Ecuador). 2*Universidad Internacional de la Rioja, (España).
Artículo recibido: 26 de junio del 2025
Artículo revisado: 27 de junio del 2025
Artículo aprobado: 12 de julio del 2025
¹Abogado de los Tribunales y Juzgados de la República del Ecuador graduado en la Estatal de Bolívar, (Ecuador) con experiencia como
servidor público.
²Abogado, Historiador y Especialista en Mediación, Negociación, Conciliación y Arbitraje, con Formación en Derecho Civil, Comercial
y Marítimo. Doctor en Ciencias Jurídicas y Políticas graduado en la Universidad Pablo de Olavide, (España) con experiencia en litigación
y gestión de despachos. Miembro de ARLAB y profesor colaborador en la Universidad Internacional de la Rioja, (España). Socio del
estudio jurídico Cuatro Ejes.
³Licenciado en Derecho por la Universidad de la Habana, (Cuba). Licenciado en Educación por la Universidad Bolivariana del Ecuador,
(Ecuador). Doctor en Ciencias Pedagógicas Universidad de la Habana, (Cuba). Director de Planificación y Gestión Académica de la
UBE.
Resumen
La incorporación de tecnologías basadas en
inteligencia artificial en el ámbito judicial es un
fenómeno creciente a nivel global. En Ecuador,
el posible uso de estas herramientas en el
Sistema Procesal Penal abre un debate
complejo que involucra eficiencia procesal,
transparencia y respeto irrestricto a los
derechos y garantías constitucionales. Este
artículo analiza críticamente el impacto de la
inteligencia artificial en el proceso penal
ecuatoriano, identificando los riesgos
asociados a su implementación, tales como el
sesgo algorítmico, la opacidad en los criterios
de decisión y las posibles afectaciones al
debido proceso. A partir de un enfoque jurídico
garantista, se plantean lineamientos y
recomendaciones para una eventual
incorporación normativa que respete los
principios constitucionales y los estándares
internacionales en materia de derechos
humanos. La investigación aporta un análisis
novedoso dentro del contexto ecuatoriano y
propone un equilibrio entre innovación
tecnológica y protección de derechos
fundamentales.
Palabras clave: Inteligencia artificial,
Sistema Procesal Penal, Debido proceso,
Garantías Constitucionales, Sesgo
algorítmico, Justicia predictiva.
Abstract
The incorporation of artificial intelligence-
based technologies in the judicial system is a
growing global phenomenon. In Ecuador, the
potential use of these tools in the criminal
procedural system opens a complex debate
involving procedural efficiency, transparency,
and unrestricted respect for constitutional
rights and guarantees. This article critically
analyzes the impact of artificial intelligence on
the Ecuadorian criminal process, identifying
the risks associated with its implementation,
such as algorithmic bias, opacity in decision-
making criteria, and potential impacts on due
process. Based on a legal-based approach,
guidelines and recommendations are proposed
for its eventual regulatory incorporation that
respects constitutional principles and
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 170
international human rights standards. This
research provides a novel analysis within the
Ecuadorian context and proposes a balance
between technological innovation and the
protection of fundamental rights.
Keywords: Artificial intelligence, Criminal
Procedural System, Due process,
Constitutional Guarantees, Algorithmic
bias, Predictive justice.
Sumário
A incorporação de tecnologias baseadas em
inteligência artificial no sistema judicial é um
fenômeno global crescente. No Equador, o
potencial uso dessas ferramentas no sistema
processual penal abre um debate complexo que
envolve eficiência processual, transparência e
respeito irrestrito aos direitos e garantias
constitucionais. Este artigo analisa
criticamente o impacto da inteligência artificial
no processo penal equatoriano, identificando os
riscos associados à sua implementação, como
viés algorítmico, opacidade nos critérios
decisórios e potenciais impactos no devido
processo legal. Com base em uma abordagem
de cunho jurídico, são propostas diretrizes e
recomendações para sua eventual incorporação
regulatória, respeitando os princípios
constitucionais e as normas internacionais de
direitos humanos. Esta pesquisa oferece uma
análise inédita no contexto equatoriano e
propõe um equilíbrio entre inovação
tecnológica e proteção dos direitos
fundamentais.
Palavras-chave: Inteligência artificial,
Sistema Processual Penal, Devido Processo
Legal, Garantias Constitucionais, Viés
Algorítmico, Justiça Preditiva.
Introducción
La irrupción de la inteligencia artificial (IA) en
los diversos ámbitos de la sociedad
contemporánea ha generado transformaciones
profundas en la forma en que se conciben,
organizan y ejecutan múltiples procesos
sociales, económicos y jurídicos.
Particularmente, el ámbito judicial y procesal
penal enfrenta un momento decisivo ante el
avance de tecnologías algorítmicas capaces de
incidir en etapas sensibles del proceso penal,
como la recolección de pruebas, la valoración
probatoria, la predicción de reincidencia o
peligrosidad, e incluso la toma de decisiones
judiciales asistidas por sistemas inteligentes. En
el contexto ecuatoriano, la incorporación de
herramientas basadas en IA en el Sistema
Procesal Penal representa un desafío urgente y
complejo. No se trata únicamente de una
cuestión tecnológica, sino esencialmente
jurídica y ética, pues se pone en juego la
vigencia de principios constitucionales
fundamentales como el debido proceso, la
presunción de inocencia, el derecho a una
defensa efectiva y el principio de imparcialidad
judicial.
Este artículo tiene como objetivo analizar el
impacto potencial de la inteligencia artificial en
el Sistema Procesal Penal Ecuatoriano,
explorando sus posibilidades, limitaciones y los
riesgos que podrían comprometer las garantías
esenciales del proceso penal. Se parte de una
perspectiva crítica que reconoce tanto las
ventajas operativas que podría implicar la
implementación de sistemas automatizados
como las amenazas que estas tecnologías
representan si no se ajustan a un marco
normativo claro, garantista y respetuoso de los
derechos humanos. El análisis parte del
entendimiento conceptual de inteligencia
artificial como el conjunto de sistemas
informáticos capaces de realizar tareas que
tradicionalmente requieren inteligencia
humana, tales como el aprendizaje, el
razonamiento, el reconocimiento de patrones y
la toma de decisiones (Russell y Norvig, 2021).
Particular relevancia adquiere la IA jurídica o
legaltech, definida como el uso de herramientas
tecnológicas para optimizar, automatizar o
asistir en tareas jurídicas.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 171
Desde el plano procesal penal, el marco teórico
se sustenta en los principios rectores del debido
proceso reconocidos por la Constitución de la
República del Ecuador (2008), el Código
Orgánico Integral Penal (COIP) y tratados
internacionales de derechos humanos,
especialmente el Pacto Internacional de
Derechos Civiles y Políticos (art. 14) y la
Convención Americana sobre Derechos
Humanos (art. 8). Estos principios son
ineludibles al analizar el ingreso de tecnologías
automatizadas al sistema procesal penal, pues
cualquier innovación debe respetar la estructura
garantista del proceso penal. Asimismo, resulta
imprescindible considerar los aportes de la
teoría crítica del derecho y las advertencias
sobre el sesgo algorítmico (O’Neil, 2016;
Eubanks, 2018), fenómeno que plantea serias
objeciones éticas a la aplicación de sistemas de
IA en decisiones que afectan derechos
fundamentales. La transparencia algorítmica, el
control jurisdiccional de sistemas
automatizados y la responsabilidad institucional
ante eventuales errores o discriminaciones
producidas por algoritmos, se configuran como
temas ineludibles en el debate contemporáneo.
En definitiva, este estudio propone una
reflexión integral y multidisciplinaria sobre el
papel que debe cumplir la inteligencia artificial
en el Sistema Procesal Penal Ecuatoriano,
partiendo de una premisa irrenunciable: toda
transformación tecnológica debe estar al
servicio de una justicia más eficiente, pero,
sobre todo, más justa, equitativa y respetuosa de
los derechos fundamentales. A ese tenor, se ha
partido en esta investigación de la siguiente
situación problémica: la justicia penal
ecuatoriana enfrenta serias dificultades
estructurales, como la congestión procesal, la
lentitud en la administración de justicia, y en
algunos casos, decisiones judiciales
influenciadas por factores subjetivos. Ante esta
realidad, surge el interés por incorporar
herramientas basadas en inteligencia artificial
que prometen optimizar procesos, prever
comportamientos y facilitar la labor judicial.
Sin embargo, esta posible transformación
plantea un grave riesgo: que la eficiencia
tecnológica se imponga por sobre las garantías
constitucionales y los derechos fundamentales
de las personas procesadas.
El problema central es determinar cómo
compatibilizar el uso de inteligencia artificial en
el Sistema Procesal Penal ecuatoriano sin
vulnerar los principios esenciales del debido
proceso y las garantías constitucionales.
Determinando su formulación de la siguiente
forma: ¿De qué manera la incorporación de
herramientas basadas en inteligencia artificial
puede afectar el respeto a los principios
garantistas del debido proceso en el Sistema
Procesal Penal Ecuatoriano? En consonancia
con lo anterior se ha previsto como: objetivo
general, analizar el impacto jurídico de la
implementación de inteligencia artificial en el
Sistema Procesal Penal Ecuatoriano para
determinar su compatibilidad con el respeto al
debido proceso y las garantías constitucionales.
De tal suerte, que se han delimitado a esos fines,
los objetivos específicos: identificar las
aplicaciones actuales y potenciales de la
inteligencia artificial en los procesos judiciales
penales; examinar los principios jurídicos y
garantías constitucionales que podrían verse
afectados por la implementación de IA en el
proceso penal; proponer lineamientos jurídicos
y normativos para una implementación
adecuada, garantista y respetuosa de derechos
humanos.
Materiales y Métodos
Dentro de los métodos de Investigación, desde
el enfoque de la ciencia jurídica, se emplearán
los siguientes métodos: método dogmático-
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 172
jurídico: para el análisis sistemático de las
normas vigentes en Ecuador y su relación con
los principios constitucionales del debido
proceso; método hermenéutico: para la
interpretación de normas constitucionales,
penales y procesales aplicables al tema; método
Comparativo: Para estudiar experiencias
internacionales en el uso de IA en procesos
judiciales penales; método crítico-analítico:
para examinar riesgos, vacíos normativos y
posibles violaciones a derechos fundamentales.
Por eso motivos, en cuanto a su tipología, se
trata de Investigación Jurídica Aplicada con
enfoque teórico-práctico, orientada a generar
propuestas concretas de mejora normativa e
institucional. Marcado por un enfoque
cualitativo: fundamentado en el análisis
doctrinal, jurídico y normativo, complementado
con estudios de caso y revisión crítica de
literatura académica sobre inteligencia artificial
y derecho procesal penal.
El análisis de la incorporación de la inteligencia
artificial en el Sistema Procesal Penal
Ecuatoriano reviste una importancia estratégica
y prioritaria en el contexto jurídico
contemporáneo. La transformación digital de
los sistemas judiciales es una tendencia
irreversible a nivel global, impulsada por la
necesidad de optimizar recursos, agilizar
procesos y reducir la carga laboral en los
órganos de administración de justicia. En
América Latina, y particularmente en Ecuador,
esta tendencia se presenta en un escenario
caracterizado por crisis institucionales
recurrentes, morosidad judicial y demandas
sociales por mayor transparencia y eficiencia en
el sistema penal. La actualidad del tema radica
en que, si bien en Ecuador aún no se han
implementado de manera formal sistemas de
inteligencia artificial en la justicia penal,
diversas instituciones públicas y privadas están
promoviendo proyectos de digitalización
avanzada y automatización procesal. Además, a
nivel internacional, casos como el de COMPAS
en Estados Unidos, un sistema algorítmico
utilizado para predecir reincidencia, han
generado debates éticos y jurídicos que
anticipan los conflictos que podrían presentarse
en el contexto ecuatoriano si estas tecnologías
no son reguladas adecuadamente.
Por otra parte, la novedad del tema se justifica
en la ausencia de estudios profundos, integrales
y críticos sobre la relación entre inteligencia
artificial y debido proceso penal en Ecuador.
Mientras en sistemas jurídicos más
desarrollados se han planteado propuestas
teóricas y normativas sobre justicia algorítmica,
en Ecuador este debate recién empieza a
emerger y carece aún de una propuesta sólida
que articule lo tecnológico con los principios
garantistas del derecho penal. El tema no solo
es novedoso en el ámbito jurídico, sino que
también abre el campo a la
interdisciplinariedad, exigiendo un diálogo
entre juristas, informáticos, ingenieros,
filósofos del derecho y especialistas en
derechos humanos. Esta característica confiere
al presente estudio un valor agregado, pues
contribuye a llenar un vacío académico
existente en Ecuador y posiciona el debate en el
nivel que exige el contexto tecnológico global.
Los métodos a utilizar en este trabajo, son los
siguientes: Investigación doctrinal-normativa;
análisis de fuentes primarias: estudio
sistemático del COGEP, la Constitución, leyes
especiales (p. ej. Ley de Protección de Datos),
reglamentos y estándares internacionales
(Convenio 108 del Consejo de Europa, Reglas
de Brasilia).
Doctrina especializada: revisión de literatura
jurídica y tecnológica sobre IA y derecho
procesal (Gil Robles, 2003; Hernández &
Mendoza, 2018). Para Identificar principios,
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 173
valores y lagunas normativas que el IA plantea
al debido proceso penal. Análisis
jurisprudencial. Selección de precedentes:
Recopilar y examinar sentencias nacionales
(Corte Constitucional, Corte Nacional de
Justicia) y decisiones internacionales (Corte
IDH, TEDH) que aborden algoritmos, datos
masivos o evidencias digitales. Criterio de
inclusión: Fallos de los últimos cinco años en
los que se cite o aplique IA (p. ej. uso de
sistemas de riesgo de reincidencia). Para
evaluar cómo los tribunales interpretan
garantías procesales frente a decisiones
automatizadas. Estudio comparado:
comparación de marcos regulatorios:
Contrastarlos con modelos de otros países de la
región (Chile, Brasil, Colombia) y de la UE,
destacando buenas prácticas y salvaguardas
(Hernández, 2020). Metodología: Matriz
comparativa que contraste principios, niveles de
transparencia, protocolos de auditoría de
algoritmos y remediaciones jurídicas.
Investigación empírica cualitativa: entrevistas
semiestructuradas a jueces, fiscales, defensores
públicos y peritos de IA. Guía de entrevista:
Percepción sobre ventajas y riesgos de la IA;
experiencia práctica con herramientas
predictivas; necesidades de capacitación. Para
conocer de primera mano los desafíos
operativos y éticos en tribunales. Análisis
cuantitativo de sentencias. Recolección de
datos: Base de datos de X sentencias penales
que hayan empleado sistemas de IA (p. ej.
evaluaciones de riesgo). Herramientas:
estadística descriptiva para medir frecuencia de
uso, tasas de concordancia entre pronóstico
automatizado y fallo humano. Para cuantificar
el nivel de adopción y detectar posibles sesgos.
Evaluación técnica de algoritmos: pruebas de
caja negra: para someter a un software de IA a
casos de prueba controlados para analizar su
comportamiento (tasa de falsos
positivos/negativos). Revisión de
documentación: transparencia sobre variables y
pesos utilizados. Para determinar grado de
explicabilidad (explainability) y cumplimiento
de estándares de “justicia procedimental”.
Propuesta normativa y de protocolos. Síntesis
de hallazgos: A partir de los métodos anteriores,
diseñar un borrador de reforma al COGEP y
protocolos de uso de IA en sede penal.
Validación preliminar: Someterlo a discusión
con un pequeño grupo de expertos (focus
group). Finalmente, el abordaje de este tema es
fundamental para prevenir una implementación
acrítica y peligrosa de tecnologías que podrían
afectar derechos fundamentales, pero también
para potenciar las oportunidades que la
inteligencia artificial puede ofrecer a favor de
una justicia más ágil, equitativa y transparente.
Resultados y Discusión
Fundamentos conceptuales y teóricos de la
Inteligencia Artificial en el ámbito procesal
penal
La inteligencia artificial es un campo
interdisciplinario de la informática que busca
desarrollar sistemas capaces de realizar tareas
que normalmente requieren inteligencia
humana, como el aprendizaje, el razonamiento,
la planificación y la toma de decisiones (Russell
y Norvig, 2021). Estos sistemas utilizan
algoritmos, redes neuronales y aprendizaje
automático (machine learning) para procesar
grandes volúmenes de datos y generar patrones
o predicciones. El término inteligencia artificial
fue acuñado en 1956 por John McCarthy,
durante la conferencia de Dartmouth,
considerada el punto de partida formal de esta
disciplina (Copeland, 2020). Sin embargo, sus
antecedentes conceptuales pueden rastrearse en
los trabajos de Alan Turing (1950) con su
célebre “Test de Turing”, mediante el cual se
preguntaba si una máquina podía pensar.
Históricamente, el desarrollo de la IA puede
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 174
dividirse en varias etapas: una fase inicial de
entusiasmo en las décadas de 1950 y 1960,
seguida de periodos de estancamiento
conocidos como “inviernos de la IA”, hasta el
resurgimiento en el siglo XXI gracias al
desarrollo del aprendizaje profundo (deep
learning) y el aumento de la capacidad
computacional (Goodfellow et al., 2016). Esta
evolución permitió la expansión de la IA hacia
áreas como la medicina, la economía, y más
recientemente, el derecho. El vínculo entre IA y
derecho surge principalmente desde la
necesidad de gestionar grandes cantidades de
información jurídica y facilitar la toma de
decisiones en entornos complejos. Según
Susskind (2019), el derecho es uno de los
campos más susceptibles a transformaciones
digitales debido a su estructura basada en
documentos, reglas y procedimientos, lo que lo
convierte en terreno rtil para aplicaciones
tecnológicas.
Sin embargo, el uso de IA en el ámbito jurídico
plantea retos relacionados con los principios de
legalidad, transparencia, igualdad ante la ley y
tutela judicial efectiva. Esto es especialmente
crítico en el campo del derecho penal, donde
están en juego derechos fundamentales como la
libertad, el debido proceso y la presunción de
inocencia. En el campo penal, la relación entre
IA y derecho cobra especial relevancia a través
de herramientas como los sistemas de justicia
predictiva, algoritmos de evaluación de riesgos
de reincidencia y asistentes virtuales para jueces
y fiscales (Richardson, 2021). Estas
aplicaciones, si bien prometen eficiencia y
agilidad, han sido objeto de críticas por posibles
sesgos algorítmicos que podrían afectar
negativamente a poblaciones vulnerables o
reproducir patrones discriminatorios (Eubanks,
2018). En el contexto ecuatoriano, el derecho
penal tiene un carácter marcadamente
garantista, conforme al artículo 76 de la
Constitución de la República del Ecuador
(2008), que establece el debido proceso como
un derecho irrenunciable. Por ello, cualquier
intento de incorporar sistemas automatizados
debe garantizar el respeto estricto a los derechos
fundamentales, siendo el juez humano el único
responsable de la decisión final.
Además, doctrinarios como Farfán et al. (2023)
afirman que el derecho penal, por su carácter
sancionador y protector de derechos, debe ser el
último espacio en el que se permita cualquier
tipo de automatización decisoria. La IA debe ser
entendida en este contexto como una
herramienta auxiliar, nunca como un sustituto
de la función jurisdiccional. En conclusión, la
inteligencia artificial representa una
herramienta poderosa en el ámbito jurídico,
pero su aplicación en el derecho penal exige un
enfoque ético, transparente y garantista, que
asegure el respeto a los principios del Estado
constitucional de derechos y justicia. A nivel
internacional, el desarrollo normativo sobre
inteligencia artificial aún se encuentra en una
fase inicial, con iniciativas dispersas,
principalmente en el ámbito europeo. Uno de
los esfuerzos más relevantes es el Artificial
Intelligence Act (AIA) propuesto por la
Comisión Europea en 2021, que busca
establecer un marco jurídico integral para
regular los sistemas de IA en función del nivel
de riesgo que representen para los derechos
fundamentales (European Commission, 2021).
Este proyecto propone una clasificación que
distingue entre sistemas de riesgo inaceptable
(prohibidos), alto riesgo (regulados
estrictamente) y bajo riesgo (con obligaciones
mínimas). Como señala Wachter (2023), esta
propuesta representa un “hito normativo
mundial” al priorizar principios como
transparencia, rendición de cuentas y
explicabilidad de los algoritmos.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 175
En el ámbito de derechos humanos, la
Resolución sobre Ética de la Inteligencia
Artificial de la UNESCO (2021) establece
principios orientadores para el desarrollo ético
de estas tecnologías, entre ellos el respeto a la
dignidad humana, la protección de los derechos
fundamentales y la promoción de una
gobernanza algorítmica justa. No obstante, a
pesar de estos avances, estudios recientes
sostienen que aún existe una fragmentación
normativa global y que se requiere
armonización jurídica internacional (Zilka et
al., 2022). La doctrina coincide en que el
derecho internacional todavía no ha logrado
crear un marco vinculante específico para
sistemas de IA aplicados a contextos judiciales
(Camps, 2024). En Ecuador, no existe aún una
ley específica sobre inteligencia artificial. Sin
embargo, existen normas dispersas que abordan
aspectos tangenciales. Por ejemplo, la Ley
Orgánica de Protección de Datos Personales
(Registro Oficial, 2021) contempla el derecho a
no ser sometido a decisiones automatizadas sin
intervención humana, salvo consentimiento
expreso o interés legítimo, lo que constituye un
primer reconocimiento del impacto de la IA.
En cuanto al derecho penal específicamente, el
Código Orgánico Integral Penal no contempla
disposiciones relativas al uso de IA en procesos
penales. No obstante, la Constitución de la
República del Ecuador (2008), en su artículo 76,
establece el principio de debido proceso, que
exige una justicia imparcial, oral, pública y
motivada, lo que implicaría que cualquier
sistema automatizado debe ser considerado
como un auxiliar, pero nunca como un sustituto
de la función jurisdiccional. La jurisprudencia
ecuatoriana aún no se ha pronunciado
directamente sobre el uso de inteligencia
artificial en procesos judiciales penales. Sin
embargo, sentencias como la No. 3-18-CN/20
de la Corte Constitucional refuerzan el carácter
innegociable del debido proceso, recordando
que toda actuación administrativa o judicial
debe ser motivada y comprensible para las
partes involucradas.
A nivel doctrinal, autores como Farfán et al.
(2023) y Acosta (2025) coinciden en que la
ausencia de regulación específica genera
incertidumbre jurídica. Proponen, por tanto, el
desarrollo de leyes orgánicas específicas sobre
IA, que contemplen principios como
transparencia algorítmica, revisión humana
obligatoria y auditorías técnicas periódicas. A
propósito de los desafíos nacionales de la IA.
Los principales desafíos regulatorios tanto en
Ecuador como en el ámbito internacional son:
Falta de normas vinculantes específicas
para IA aplicada al derecho penal.
Riesgos de discriminación algorítmica por
sesgos en los datos utilizados para entrenar
sistemas predictivos (Eubanks, 2018).
Carencia de mecanismos de supervisión
independientes que permitan auditar y
validar algoritmos utilizados en entornos
judiciales.
Necesidad de compatibilizar el uso de IA
con garantías fundamentales, como el
derecho a una decisión judicial humana, la
presunción de inocencia y la motivación
racional de las sentencias.
Como señala Susskind (2019), el verdadero reto
no radica únicamente en incorporar nuevas
tecnologías al quehacer judicial, sino en adaptar
los marcos jurídicos tradicionales a un
ecosistema tecnológico en constante evolución,
sin comprometer los principios fundamentales
del debido proceso. Esta afirmación resulta
particularmente pertinente cuando se analiza la
incorporación de inteligencia artificial en el
sistema procesal penal, un ámbito donde los
derechos fundamentales, vida, libertad,
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 176
presunción de inocencia, derecho a la defensa y
a la motivación de las decisiones, se encuentran
en juego. El debido proceso es la columna
vertebral de todo Estado constitucional de
derecho, ya que garantiza que las decisiones
judiciales no sean arbitrarias, sino el resultado
de procedimientos racionales, públicos,
imparciales y contradictorios (Ferrajoli, 2011).
La introducción de sistemas automatizados en
estos procesos, aunque pueda representar
eficiencia y agilidad, plantea el riesgo de
sustituir el juicio humano por lógicas
algorítmicas opacas, lo que podría vulnerar
derechos esenciales si no existe una adecuada
supervisión y regulación (Wachter, 2023). En
este contexto, el desafío consiste en armonizar
innovación con garantías constitucionales. La
automatización no debe desplazar el ejercicio
racional del juez, sino facilitar el acceso a
información relevante o realizar tareas
mecánicas o repetitivas. El riesgo radica en que,
si los algoritmos comienzan a tener un peso
decisivo en resoluciones judiciales sin control
humano, se podría incurrir en lo que Celia
Zolberg (2024) denomina “deshumanización de
la justicia penal”.
Particularmente en el derecho penal, la
motivación de las sentencias debe ser
comprensible, explícita y basada en criterios
jurídicos, no meramente estadísticos. Como
afirma Camps (2024), “el razonamiento jurídico
no es solo un cálculo probabilístico, sino un
ejercicio hermenéutico vinculado a valores
democráticos y principios éticos”. Ecuador,
como Estado constitucional de derechos y
justicia (Asamblea Nacional, 2008), no puede
sacrificar garantías en nombre de la eficiencia
tecnológica. La Corte Constitucional del
Ecuador, en sentencias como la No. 3-18-
CN/20, ha reiterado que la motivación de las
decisiones judiciales no puede ser sustituida por
procedimientos automáticos o formulas
mecánicas, ya que debe ser producto de un
ejercicio argumentativo fundado en el derecho.
Por lo tanto, si bien es necesario que el sistema
procesal penal ecuatoriano avance hacia la
incorporación responsable de herramientas de
inteligencia artificial, esto solo debe hacerse
bajo estrictas condiciones jurídicas;
transparencia algorítmica, supervisión judicial
constante, y posibilidad de impugnar cualquier
resultado automatizado (Eubanks, 2018; Zilka
et al., 2022). En suma, el equilibrio entre
tecnología e instituciones jurídicas no debe
buscar eficiencia a costa de justicia, sino justicia
con el apoyo de herramientas tecnológicas, pero
sin perder de vista que el ser humano el
juez es el garante último del respeto a los
derechos fundamentales.
Acomodo del derecho penal a la inteligencia
artificial
La incorporación de inteligencia artificial en el
sistema procesal penal plantea desafíos que no
pueden ser abordados únicamente desde el
ámbito técnico o tecnológico, sino que
requieren una sólida fundamentación desde la
ciencia jurídica. Como señala Ferrajoli (2011),
el derecho penal es la manifestación más
extrema del poder punitivo del Estado, por lo
que debe estar sometido a los principios más
estrictos de legalidad, culpabilidad,
proporcionalidad y debido proceso. Desde esta
perspectiva, la utilización de sistemas de IA en
procedimientos penales debe enmarcarse dentro
de lo que Zaffaroni (2019) denomina
“garantismo penal integral”, es decir, un
modelo que prioriza la protección de los
derechos humanos por encima de cualquier
eficiencia procesal. Esto significa que cualquier
innovación tecnológica debe subordinarse a los
derechos fundamentales de las personas
involucradas en el proceso penal, especialmente
del procesado. El debido proceso, como lo
desarrolla Taruffo (2017), no es solo una
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 177
garantía formal, sino que constituye un
elemento sustancial de la justicia material, ya
que permite equilibrar el poder del Estado frente
al individuo. La inteligencia artificial, aunque
puede contribuir a mejorar la gestión judicial,
no debe convertirse en un instrumento que
opaque el razonamiento jurídico humano ni
sustituya las funciones deliberativas del juez,
por cuanto ello comprometería directamente la
legitimidad democrática del proceso penal.
La doctrina contemporánea destaca tres
criterios fundamentales para el desarrollo e
implementación de IA en contextos judiciales:
Principio de explicabilidad: Los algoritmos
utilizados deben permitir ser comprendidos
y auditados por las partes procesales,
evitando el fenómeno de la “caja negra”
(Wachter, 2023).
Principio de control humano significativo
(meaningful human control): Todas las
decisiones que afecten derechos
fundamentales deben estar bajo el control
directo de un operador jurídico humano
capacitado (UNESCO, 2021).
Principio de igualdad y no discriminación:
Los algoritmos deben ser diseñados y
auditados para evitar reproducir patrones
de discriminación presentes en los datos
históricos (Eubanks, 2018).
Estos criterios son esenciales para que el
sistema procesal penal pueda incorporar
innovaciones tecnológicas sin traicionar sus
fundamentos constitucionales. Como señala
Susskind (2019), el reto no es tecnológico, sino
normativo y ético: se trata de adaptar los marcos
jurídicos a la nueva realidad digital preservando
la dignidad y los derechos humanos como ejes
estructurales del sistema judicial. La
importancia de estos criterios radica en que
constituyen límites estructurales al avance
irreflexivo de la automatización. No se trata de
rechazar la tecnología, sino de asegurar que su
implementación no fracture los consensos
civilizatorios sobre justicia, equidad y control
democrático del poder punitivo (Zolberg,
2024). Finalmente, como ha señalado De
Gregorio (2023), el derecho penal, por su
naturaleza punitiva y restrictiva de libertades, es
el espacio jurídico donde deben aplicarse con
mayor rigor los principios de transparencia,
supervisión y control humano en el uso de IA.
Por tanto, el verdadero desafío es lograr un
modelo de justicia penal tecnológicamente
asistido, pero constitucionalmente garantizado,
donde las ventajas de la inteligencia artificial no
se conviertan en amenazas para los derechos
fundamentales, sino en instrumentos auxiliares
plenamente subordinados a la racionalidad
jurídica, el control judicial y el respeto por el
debido proceso.
Implementación de la Inteligencia Artificial
en el Derecho Penal: perspectiva desde el
Derecho Comparado y el contexto nacional
La implementación de inteligencia artificial en
el ámbito del derecho penal, tanto en Ecuador
como a nivel internacional, debe ser concebida
desde una perspectiva garantista, apoyada en la
doctrina jurídica contemporánea y en las
experiencias acumuladas por los sistemas
comparados. La ciencia jurídica sostiene que el
derecho penal, por su carácter sancionador,
debe operar bajo el principio de intervención
mínima, lo que exige especial cuidado frente a
la incorporación de nuevas tecnologías que
puedan incidir en la libertad individual
(Ferrajoli, 2011). Diversos sistemas jurídicos ya
han implementado herramientas de IA en áreas
específicas del derecho penal. Uno de los casos
más conocidos es COMPAS (Correctional
Offender Management Profiling for Alternative
Sanctions) en Estados Unidos, utilizado para
evaluar riesgos de reincidencia en procesos de
libertad condicional. Si bien su objetivo era
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 178
apoyar la labor judicial, fue severamente
criticado por generar resultados sesgados en
contra de poblaciones afroamericanas (Angwin
et al., 2016), lo que encendió el debate sobre la
discriminación algorítmica. Por otro lado, en
Estonia, se ha implementado el uso
experimental de jueces-robots para resolver
casos menores de tipo civil, aunque el sistema
excluye expresamente casos penales,
reconociendo el alto nivel de responsabilidad
ética y jurídica involucrado (Pomerleau, 2021).
En España, se está desarrollando el proyecto
Prometea, que utiliza IA para ayudar en la
redacción de documentos judiciales y filtrar
expedientes, con buenos resultados en
reducción de tiempos, pero siempre bajo
supervisión humana (De Gregorio, 2023).
Estos ejemplos demuestran que, si bien la IA
puede aportar eficiencia, ningún sistema
jurídico avanzado ha reemplazado la decisión
judicial penal propiamente dicha por
algoritmos, por las altas exigencias de
motivación y respeto a los derechos
fundamentales. Por su parte, dentro de las
ventajas potenciales de la IA en el derecho
penal, se pudieran encontrar:
Agilización procesal: La IA puede
utilizarse para ordenar expedientes,
identificar jurisprudencia relevante y
sugerir líneas argumentativas preliminares
(Susskind, 2019).
Acceso a justicia: Herramientas
automatizadas pueden ser utilizadas por
defensores públicos y fiscales para
optimizar tiempos y recursos.
Reducción de cargas burocráticas:
Algoritmos predictivos podrían ayudar a
identificar patrones delictivos recurrentes o
zonas geográficas con mayor riesgo.
La otra arista al respecto, se sitúa en
aquellas desventajas o elementos
negativos, dentro de los que resaltan:
Sesgos algorítmicos: La IA puede
reproducir o amplificar discriminaciones
históricas si los datos con los que se entrena
contienen sesgos sociales, como ocurrió en
el caso COMPAS (Angwin et al., 2016).
Falta de transparencia (caja negra): Muchos
algoritmos complejos no permiten conocer
con claridad el porqué de sus resultados, lo
que atenta contra el derecho a una sentencia
motivada (Wachter, 2023).
Responsabilidad jurídica: No está claro
quién sería responsable en caso de que una
decisión basada en IA vulnere derechos
fundamentales: ¿el programador, el
operador judicial o el Estado?
Deshumanización de la justicia: La
administración de justicia penal requiere
empatía, ponderación e interpretación
jurídica, elementos difícilmente
sustituibles por máquinas (Zolberg, 2024).
En Ecuador, la IA podría implementarse como
herramienta auxiliar en fases como; gestión de
expedientes penales complejos; detección de
errores procesales en los actos administrativos
de la Fiscalía, y; generación de alertas
tempranas de retardos procesales. No obstante,
como advierte Farfán et al. (2023), es
imprescindible que cualquier herramienta
tecnológica esté subordinada al principio de
supremacía del juez humano (Constitución de la
República del Ecuador, 2008). En el orden
estructural deben contemplarse los siguientes
aspectos:
Marco normativo insuficiente: Se requiere
una ley específica sobre inteligencia
artificial que establezca criterios de
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 179
transparencia, supervisión independiente y
auditoría periódica.
Formación judicial especializada: Los
operadores del sistema penal deben ser
capacitados para comprender los alcances y
limitaciones de las herramientas de IA (De
Gregorio, 2023).
Participación ciudadana: Los desarrollos
tecnológicos deben ser acompañados de
mecanismos de participación y control
social, garantizando el principio de
publicidad y escrutinio democrático de los
actos judiciales.
La aplicación de los principios rectores en el
uso de inteligencia artificial en el sistema
procesal penal no es una cuestión meramente
formal, sino sustancial. Su incidencia práctica
garantiza que la innovación tecnológica no
erosione los pilares del constitucionalismo
democrático ni vulnere derechos
fundamentales. En ese cauce, se pueden
subrayar algunos principios trascedentes para
entender este escenario, tales como: 1. Principio
de explicabilidad o transparencia algorítmica.
La explicabilidad implica que los operadores
jurídicos y las partes procesales puedan
entender cómo el sistema de IA llega a un
determinado resultado o sugerencia (Wachter,
2023). Su impacto es determinante en el
cumplimiento del derecho a una decisión
judicial motivada (art. 76 de la Constitución del
Ecuador, 2008). Una decisión penal basada en
algoritmos opacos vulneraría el derecho a la
defensa, pues impediría a la persona impugnar
adecuadamente la base ctica y jurídica del
fallo. El respeto de este principio preserva la
racionalidad argumentativa del juez y evita que
se naturalicen decisiones automáticas
desprovistas de justificación comprensible (De
Gregorio, 2023).
2. Principio de control humano significativo;
este principio implica que toda decisión
automatizada debe estar supervisada y validada
por una autoridad judicial competente
(UNESCO, 2021). Su incidencia es esencial en
el derecho penal porque no puede admitirse que
un algoritmo, por solo, determine medidas
como prisión preventiva o sentencias
condenatorias. En palabras de Ferrajoli (2011),
la decisión penal es un acto de poder que debe
estar siempre mediado por un ejercicio racional,
ético y jurídicamente fundamentado. La
inteligencia artificial debe ser un apoyo
instrumental, pero nunca un sustituto del juicio
crítico del ser humano, especialmente cuando lo
que está en juego es la libertad de una persona
(Zaffaroni, 2019).
3. Principio de igualdad y no discriminación,
este principio garantiza que las herramientas
tecnológicas no perpetúen desigualdades
sociales, étnicas o económicas presentes en los
datos históricos utilizados para entrenar los
algoritmos (Eubanks, 2018). Su incidencia es
vital, ya que una herramienta de IA sesgada
podría reforzar patrones discriminatorios en
decisiones judiciales, como ha sido
documentado en experiencias como el caso
COMPAS en Estados Unidos (Angwin et al.,
2016). En Ecuador, este principio tiene aún más
relevancia considerando que el sistema judicial
ha sido históricamente cuestionado por
prácticas discriminatorias contra poblaciones
vulnerables, como pueblos indígenas,
afrodescendientes y personas en situación de
pobreza (Defensoría del Pueblo, 2022). En
conjunto, estos principios no son elementos
decorativos, sino garantías materiales que
protegen el núcleo duro del Estado de derecho.
Su vigencia asegura la compatibilidad entre la
transformación tecnológica del aparato judicial
y el respeto de los derechos fundamentales.
Como concluye Camps (2024), el reto no es
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 180
tecnológico, sino ético y constitucional:
mantener la justicia como ejercicio racional de
seres humanos, asistidos, pero no
reemplazados, por algoritmos.
Implementar inteligencia artificial en el ámbito
penal sin considerar la incidencia efectiva de
estos principios implicaría un riesgo directo de
violación a los derechos humanos y erosionaría
la legitimidad democrática del sistema procesal
penal (Zolberg, 2024). Implementar
inteligencia artificial en el ámbito penal sin
garantizar la aplicación efectiva de principios
como la explicabilidad, el control humano
significativo y la no discriminación puede
derivar en consecuencias graves para los
derechos humanos y el sistema democrático de
justicia. Esta advertencia no es hipotética;
existen ejemplos palpables tanto en Ecuador
como en el derecho comparado que demuestran
estos riesgos.
El sistema judicial ecuatoriano y la
discriminación estructural: un punto de
partida
En Ecuador, no existe aún un sistema de
inteligencia artificial en el proceso penal, pero
existen serias deficiencias estructurales que
podrían verse agravadas por una mala
implementación de IA. La Defensoría del
Pueblo (2022) ha documentado casos de
discriminación estructural en decisiones
judiciales contra personas indígenas,
afrodescendientes y personas pobres. Si un
algoritmo fuera entrenado con datos judiciales
históricos contaminados por sesgos étnicos o de
clase, estos sesgos se trasladarían y
multiplicarían en decisiones automatizadas. Por
ejemplo, los informes del Observatorio de
Derechos Humanos han señalado casos en los
que personas afroecuatorianas reciben condenas
más severas por delitos similares cometidos por
personas mestizas. Un algoritmo alimentado
con esas sentencias aprendería a replicar ese
patrón discriminatorio, profundizando la
desigualdad. Sin el principio de explicabilidad
y auditoría permanente, tales discriminaciones
quedarían ocultas detrás de una “decisión
algorítmica” supuestamente neutral.
Dentro de los estudios comparados debe
resaltarse, el caso de Estados Unidos y el
sistema COMPAS, un paradigma utilizado para
evaluar el riesgo de reincidencia de imputados.
Una investigación de ProPublica (Angwin et al.,
2016) demostró que el sistema otorgaba
calificaciones de riesgo más altas a acusados
afroamericanos en comparación con acusados
blancos, aun cuando los blancos tenían tasas
más altas de reincidencia efectiva. Este “sesgo
algorítmico oculto” derivado de datos históricos
discriminatorios condujo a decisiones judiciales
injustas, como otorgar fianzas más bajas o
penas menores a personas blancas en
comparación con afroamericanos en
circunstancias similares. La ausencia del
principio de control humano significativo
provocó que los jueces se apoyaran ciegamente
en el informe automatizado de riesgo. En
Ecuador, si un sistema similar se implementara
sin control estricto, podrían repetirse estas
situaciones, afectando especialmente a
comunidades históricamente vulnerables, como
ocurre con los pueblos indígenas en conflictos
territoriales o con los jóvenes de sectores
empobrecidos frecuentemente estigmatizados
como delincuentes.
Además, sin control humano suficiente, podría
haber delegación ilegítima de decisiones
cruciales como medidas cautelares, sentencias
anticipadas o incluso detenciones automáticas,
lo que desnaturalizaría el debido proceso
garantizado en el artículo 76 de la Constitución
de la República del Ecuador (2008). El debido
proceso y el acceso efectivo a una justicia
imparcial constituyen bases esenciales de la
legitimidad democrática del Estado. Como
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 181
advierte De Gregorio (2023), si los ciudadanos
perciben que las decisiones judiciales se toman
por máquinas opacas o que refuerzan
desigualdades existentes, la confianza pública
en el sistema judicial se erosiona, debilitando el
principio republicano de división de poderes y
afectando el contrato social. En ese contexto,
como afirma Susskind (2019) no se trata solo de
introducir tecnología, sino de preservar el pacto
democrático por el cual los seres humanos
confían sus libertades a un sistema jurídico
racional, justo y comprensible.
Propuesta de implementación normativa
para la regulación de la inteligencia artificial
en el sistema procesal penal ecuatoriano
Se propone la creación de una Ley Orgánica
sobre el Uso de Inteligencia Artificial en la
Administración de Justicia. Esta ley debe
establecer los principios, límites y garantías
para el desarrollo e implementación de sistemas
de inteligencia artificial en el ámbito judicial,
especialmente en el proceso penal. Contenido
mínimo de la ley. El marco legal propuesto para
regular el uso de inteligencia artificial en el
ámbito penal en Ecuador incluye principios
rectores obligatorios como la explicabilidad, el
control humano significativo, la igualdad y la
no discriminación, la proporcionalidad y la
razonabilidad jurídica, además de la protección
de datos personales y la privacidad. Es
fundamentales también la obligación de realizar
auditorías periódicas a los algoritmos
utilizados, con participación de organismos
independientes como la Defensoría del Pueblo
y organizaciones de derechos humanos, así
como la creación de una autoridad supervisora
especializada que podría ser una unidad dentro
del Consejo de la Judicatura o una entidad
autónoma. Desde un punto de vista doctrinal,
como sostiene De Gregorio (2023), la creación
de marcos legales específicos es condición
indispensable para evitar vacíos normativos que
puedan poner en riesgo los derechos
fundamentales.
En cuanto a las reformas al Código Orgánico
Integral Penal, se recomienda incluir artículos
específicos que regulen el uso de la inteligencia
artificial en materia procesal penal. Por
ejemplo, un nuevo artículo sobre decisiones
judiciales asistidas por IA podría establecer que
las resoluciones judiciales en materia penal
fundamentadas en herramientas tecnológicas o
algoritmos deben contar con una motivación
clara y comprensible sobre el aporte de dichas
herramientas, garantizando el control humano
significativo por parte del juez. Asimismo, se
propone la prohibición expresa de utilizar
algoritmos en forma exclusiva para determinar
medidas privativas de libertad o condenas, salvo
como herramienta consultiva controlada
judicialmente. Desde el punto de vista doctrinal,
esta propuesta sigue el criterio de Wachter
(2023), quien argumenta que la legislación
penal debe garantizar que los sistemas
algorítmicos sean accesorios y consultivos en el
proceso. Además, es necesario crear un registro
público obligatorio a nivel nacional de los
sistemas algorítmicos utilizados por los órganos
judiciales, donde se deben incluir detalles como
el nombre del sistema, la entidad
desarrolladora, la finalidad, las bases de datos
utilizadas y los resultados de las auditorías. Este
registro promoverá la transparencia y permitirá
un control ciudadano similar a los proyectos de
regulación en la Unión Europea (Reglamento de
IA de la UE, 2024). En línea con esto, se
establece la participación obligatoria de peritos
certificados en inteligencia artificial en los
procesos penales en los que se utilicen informes
generados por IA, con el fin de que expliquen a
los jueces y las partes el funcionamiento del
sistema. Como ejemplo, Francia ha
implementado las Chartes d’éthique de l’IA,
donde expertos intervienen obligatoriamente en
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 182
procesos judiciales asistidos por IA (Conseil
d’État, 2021).
Para la protección de datos personales, dado que
la IA en procesos penales requiere tratamiento
de datos sensibles, se propone fortalecer el
régimen establecido por la Ley Orgánica de
Protección de Datos Personales (2021),
exigiendo el consentimiento explícito cuando
sea viable, minimización del uso de datos
sensibles y garantías de anonimización en las
bases de entrenamiento algorítmico. Desde una
perspectiva doctrinal, Camps (2024) argumenta
que el respeto a la privacidad es una condición
necesaria para evitar nuevas formas de
vigilancia punitiva automatizada. La
implementación normativa del uso de IA en el
sistema penal debe ser progresiva, sometida a
control jurisdiccional previo y posterior por
parte de la Corte Constitucional del Ecuador,
con audiencias públicas cuando los derechos
fundamentales estén en juego. Este enfoque de
implementación busca equilibrar la innovación
tecnológica con la protección de los derechos,
siguiendo modelos avanzados como el
Reglamento Europeo de IA (UE, 2024) y
experiencias en otros países como el sistema
COMPAS en Estados Unidos o las prácticas del
Conseil d’État en Francia (2021).
Relevancia práctica de la propuesta
normativa
En el contexto del Estado constitucional de
derecho ecuatoriano, la incorporación regulada
de la inteligencia artificial en el proceso penal
no es un simple avance técnico, sino una
herramienta estratégica para materializar el
mandato constitucional de una justicia pronta,
eficiente y respetuosa de los derechos
fundamentales. El artículo 1 de la Constitución
de 2008 establece que Ecuador es un Estado
constitucional de derechos y justicia, mientras
que el artículo 76 desarrolla detalladamente las
garantías básicas del debido proceso, aplicables
a toda actuación judicial. Esto significa que
cualquier innovación tecnológica en el sistema
judicial debe subordinarse a la plena vigencia de
los derechos fundamentales y ser coherente con
el bloque de constitucionalidad, que incorpora
no solo normas nacionales sino también
tratados internacionales de derechos humanos.
Desde esta perspectiva, el uso responsable de
IA puede constituirse en una herramienta
poderosa para cumplir con los mandatos
constitucionales que obligan al Estado a
garantizar el acceso efectivo a la justicia según
el art. 75. (Asamblea Nacional, 2008). La
reducción de mora judicial y la optimización de
los procesos son objetivos constitucionales que
la tecnología puede ayudar a cumplir, pero
siempre bajo criterios de legalidad,
transparencia y respeto irrestricto al principio
de presunción de inocencia en su art. 76.2
(Asamblea Nacional, 2008).
Doctrinalmente, De Gregorio (2023) sostiene
que “el potencial de la inteligencia artificial
para mejorar el funcionamiento de los sistemas
judiciales es real, pero su uso en el ámbito penal
exige condiciones estrictas de control
democrático, transparencia y garantías
procesales, precisamente por la severidad de las
consecuencias que implica una decisión judicial
en materia penal”. Sin embargo, la experiencia
comparada muestra los peligros reales de una
implementación deficiente o carente de control
constitucional. Un ejemplo paradigmático es el
uso del sistema COMPAS en Estados Unidos,
que fue cuestionado por reproducir sesgos
raciales y vulnerar el derecho a una sentencia
imparcial y motivada (Angwin et al., 2016).
Estos riesgos son especialmente sensibles en
sistemas como el ecuatoriano, donde persisten
desigualdades estructurales que podrían ser
amplificadas por algoritmos no auditados. En
este marco, la implementación normativa de la
inteligencia artificial debe articularse
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 183
directamente con el bloque de
constitucionalidad que incluye: La Constitución
de la República del Ecuador, tratados
internacionales ratificados por Ecuador, las
sentencias vinculantes de la Corte
Constitucional y el sistema interamericano de
derechos humanos.
Como señala Sánchez Rada (2023), “el
desarrollo tecnológico no puede ser un fin en
mismo, sino un medio subordinado a la garantía
efectiva de los derechos humanos; y en el caso
del proceso penal, ello implica preservar el
principio acusatorio, la igualdad de armas y la
independencia judicial”. Por tanto, la relevancia
estratégica de introducir IA en el proceso penal
ecuatoriano reside en que, bien implementada y
regulada, puede convertirse en un instrumento
para fortalecer el acceso a una justicia más ágil
y eficiente, sin sacrificar los principios
esenciales del debido proceso, el derecho a la
defensa y el control judicial efectivo. Es
precisamente en esta armonización entre
innovación tecnológica y supremacía
constitucional donde radica el verdadero reto
jurídico y político. A nivel regional, la
propuesta ecuatoriana sobre inteligencia
artificial en el proceso penal reviste una
relevancia estratégica no solo por razones
internas, sino también como motor para
fortalecer el proceso de integración jurídica de
los países miembros de la Comunidad Andina
(CAN). Actualmente, la CAN carece de una
normativa específica sobre inteligencia
artificial, pero los desarrollos en el ámbito
internacional, como el Reglamento de
Inteligencia Artificial de la Unión Europea
(2024) y la Recomendación sobre la Ética de la
Inteligencia Artificial de la UNESCO (2021),
establecen un estándar internacional que
ejercerá presión sobre los sistemas jurídicos
andinos para avanzar hacia marcos regulatorios
comunes.
La armonización regional no es una mera
opción técnica, sino una necesidad jurídica y
política para garantizar seguridad jurídica
transfronteriza, especialmente considerando
que la protección de datos personales y la
interoperabilidad tecnológica ya son
competencias compartidas por la CAN
(Decisión 878 de la CAN, 2023). Esta
normativa andina en materia de comercio
electrónico y datos personales puede ser el
punto de partida para una futura regulación
conjunta sobre inteligencia artificial, en línea
con el principio de integración progresiva
consagrado en el Tratado de Creación del
Sistema Andino de Integración (art. 4). En este
sentido, implementar en Ecuador un modelo
sólido y garantista no solo contribuiría al
cumplimiento de sus obligaciones
constitucionales y de derechos humanos, sino
que podría convertirse en referencia normativa
para Colombia, Pey Bolivia, potenciando el
desarrollo de iniciativas conjuntas como; la
protección transfronteriza de datos personales
sensibles procesados por sistemas judiciales
asistidos por IA. La interoperabilidad de
sistemas judiciales que utilicen inteligencia
artificial en funciones procesales menores. La
creación de estándares comunes sobre ética
algorítmica en procesos judiciales, que podrían
ser gestionados desde el Parlamento Andino o
la Secretaría General de la CAN.
Doctrinalmente, como sostiene Vega (2023),
“los procesos de integración jurídica en
América Latina requieren una profunda
convergencia normativa en los sectores
emergentes como la inteligencia artificial, para
evitar vacíos o disparidades que generen
desigualdad jurídica entre los ciudadanos de los
distintos Estados miembros”. Además,
experiencias comparadas como la Unión
Europea demuestran que la fragmentación
normativa genera inseguridad jurídica y
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 184
obstáculos en el acceso equitativo a la justicia.
La propuesta ecuatoriana, por tanto, puede ser
un primer paso en la construcción de un sistema
normativo regional coherente, ajustado a las
exigencias del derecho internacional de los
derechos humanos y los principios de buena
administración de justicia (Camps, 2024).
Finalmente, la armonización regional es clave
para evitar disparidades normativas que puedan
generar desigualdad jurídica en el espacio
andino, particularmente en materia penal, donde
decisiones judiciales desiguales apoyadas en
tecnologías opacas pueden erosionar el
principio de igualdad ante la ley (Rojas, 2023).
Desde el plano del Derecho internacional, la
propuesta normativa para la regulación de la
inteligencia artificial (IA) en el proceso penal
ecuatoriano se inserta dentro de un movimiento
global creciente hacia la gobernanza ética,
jurídica y democrática de las tecnologías
disruptivas, con especial énfasis en la
protección de los derechos humanos.
En primer lugar, la Recomendación sobre la
Ética de la Inteligencia Artificial de la
UNESCO (2021) constituye el primer
instrumento internacional de carácter universal
adoptado por consenso, y establece pilares
esenciales para cualquier marco regulatorio en
el ámbito judicial:
Transparencia: los sistemas de IA deben ser
explicables, comprensibles y auditables.
Control humano efectivo: las decisiones
judiciales no pueden quedar
exclusivamente en manos de algoritmos.
Responsabilidad jurídica: deben existir
mecanismos claros para asignar
responsabilidades ante fallos o
vulneraciones de derechos.
En el contexto judicial, estos principios
adquieren especial fuerza en materia penal,
donde las decisiones afectan derechos
fundamentales como la libertad, la presunción
de inocencia o el derecho a la vida. Como
sostiene Pérez (2022), “la introducción de
inteligencia artificial en el sistema penal debe
someterse a un principio de compatibilidad
reforzada con los derechos humanos, dada la
naturaleza irreversible de muchas decisiones en
esta materia”. A este marco se suma el
Reglamento de Inteligencia Artificial de la
Unión Europea (2024), que clasifica
expresamente como de “alto riesgo” el uso de
IA en procesos judiciales o administrativos que
afecten derechos fundamentales. Este
reglamento impone requisitos estrictos de
transparencia, supervisión humana y
mecanismos de corrección, estableciendo así un
estándar normativo global al que Ecuador
podría alinearse, adaptándolo a sus
especificidades constitucionales y procesales.
En América Latina, si bien aún no existe un
tratado vinculante específico sobre inteligencia
artificial, el Sistema Interamericano de
Derechos Humanos (SIDH) establece como
obligación estatal el control de
convencionalidad (Corte IDH, Opinión
Consultiva OC-23/17), por el cual cualquier
norma o práctica nacional, incluyendo
tecnologías judiciales, debe ser compatible con
los estándares internacionales de derechos
humanos. Esto refuerza el deber de Ecuador de
asegurar que la implementación de inteligencia
artificial en su proceso penal respete el principio
pro persona, privilegiando la interpretación más
favorable a la persona humana frente a posibles
tensiones entre innovación tecnológica y
garantías jurídicas. Además, diversos proyectos
legales internacionales abordan ya el cruce
entre inteligencia artificial y derecho penal. Por
ejemplo:
La Declaración de Roma de Ministros de
Justicia (2023), en el contexto del G7,
recomienda criterios éticos comunes para el uso
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 185
de IA en procedimientos penales, incluyendo
límites precisos en materia de predicción
criminal y análisis forense automatizado. El
Comité de Ministros del Consejo de Europa
(2021) emitió Directrices sobre el uso de
inteligencia artificial en los sistemas judiciales,
aplicables de forma directa a la administración
de justicia penal, estableciendo estándares sobre
transparencia algorítmica y explicabilidad de
las decisiones. Desde el plano doctrinal, Camps
(2024) resume el desafío en términos precisos:
“la armonización entre innovación tecnológica
y derecho internacional de los derechos
humanos es el mayor reto del siglo XXI, pero
también la garantía de que el desarrollo
tecnológico se ponga al servicio de la dignidad
humana”. Así, la propuesta normativa para
Ecuador no tendría un impacto meramente
local, sino que lo posicionaría como un
referente regional en gobernanza ética de la
inteligencia artificial aplicada al Derecho penal,
alineando su marco normativo con las
tendencias regulatorias globales, el derecho
internacional de los derechos humanos y los
compromisos adquiridos en el plano
interamericano.
Conclusiones
La irrupción de la inteligencia artificial en el
ámbito jurídico, y particularmente en el sistema
procesal penal, constituye uno de los mayores
desafíos contemporáneos para la ciencia
jurídica y el Estado de derecho. Como ha
quedado demostrado a lo largo del análisis, no
se trata únicamente de un avance tecnológico,
sino de un proceso que obliga a repensar las
bases mismas del sistema penal garantista.
Primero, la evolución histórica de la
inteligencia artificial muestra que su capacidad
para procesar grandes volúmenes de datos y
generar predicciones tiene un potencial real
para optimizar los procesos judiciales,
disminuir la carga procesal y reducir tiempos de
tramitación. Sin embargo, trasladar estas
ventajas al ámbito penal impone el deber
ineludible de asegurar que el uso de estas
tecnologías se realice en estricto apego a los
principios fundamentales del debido proceso,
consagrados tanto en el artículo 76 de la
Constitución ecuatoriana (2008) como en los
instrumentos internacionales de derechos
humanos. Segundo, los principios rectores de
explicabilidad, control humano significativo, no
discriminación y proporcionalidad no son
simples recomendaciones éticas, sino
verdaderos requisitos constitucionales para
evitar que el uso de IA erosione derechos
fundamentales. Como ha evidenciado la
experiencia comparada, especialmente el caso
COMPAS en EE. UU, el uso de algoritmos mal
diseñados o poco transparentes puede
reproducir discriminaciones estructurales
existentes.
Tercero, el Ecuador se enfrenta al desafío
urgente de generar un marco normativo
específico que regule el uso de IA en el proceso
penal. Si bien existen disposiciones generales
en materia de protección de datos, no existe
todavía una regulación integral que garantice el
uso ético y constitucional de estas herramientas.
Cuarto, las oportunidades que brinda la IA para
lograr una justicia más eficiente no pueden
nublar los riesgos asociados a su uso irreflexivo.
Entre los principales peligros se encuentran la
opacidad algorítmica, la reproducción de sesgos
discriminatorios y la posibilidad de afectar la
independencia judicial si se trasladan funciones
decisorias a sistemas automatizados.
Finalmente, debe destacarse que el futuro del
proceso penal ecuatoriano no se encuentra en
sustituir al juez humano por una máquina, sino
en utilizar la inteligencia artificial como una
herramienta auxiliar que potencie la capacidad
de razonamiento crítico de los operadores
jurídicos. La legitimidad democrática del
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 186
sistema de justicia penal dependerá,
precisamente, de mantener ese equilibrio entre
innovación tecnológica y respeto irrestricto a
los derechos fundamentales. En definitiva, el
reto no es tecnológico, sino ético y
constitucional: construir un modelo de justicia
penal que sea predictivo, eficiente y
tecnológico, pero sin sacrificar el paradigma
garantista que constituye la esencia del derecho
penal en un Estado constitucional democrático
de derecho. La propuesta legal, no solo es
relevante desde el punto de vista normativo,
sino también político y estratégico; a nivel
nacional, contribuiría a fortalecer el Estado
constitucional de derechos y justicia. A nivel
regional, impulsaría la armonización jurídica en
inteligencia artificial y justicia. A nivel
internacional, colocaría a Ecuador en línea con
los estándares globales sobre ética, derechos
humanos y gobernanza de IA.
Referencias Bibliográficas
Angwin, J., Larson, J., Mattu, S., & Kirchner,
L. (2016). Machine Bias. ProPublica.
https://www.propublica.org/article/machine
-bias-risk-assessments-in-criminal-
sentencing
Camps, V. (2024). Ética y algoritmos: El
desafío pendiente del Derecho Internacional.
Editorial Tirant lo Blanch.
CONEAU. (2021). Directrices sobre el uso de
inteligencia artificial en los sistemas
judiciales. Estrasburgo.
Constitución de la República del Ecuador.
(2008). Registro Oficial Suplemento 449 de
20-oct-2008.
Conseil d’État (Francia). (2021). L’intelligence
artificielle et l’action publique: rapport
annuel. https://www.conseil-etat.fr
Corte Interamericana de Derechos Humanos
(Corte IDH). (2017). Opinión Consultiva
OC-23/17 sobre Medio Ambiente y
Derechos Humanos.
https://www.corteidh.or.cr
Copeland, B. (2020). Artificial Intelligence:
The Very Idea (Rev. ed.). Routledge.
Decisión 878 de la Comunidad Andina. (2023).
Normativa sobre Comercio Electrónico y
Protección de Datos Personales. Secretaría
General de la CAN.
De Gregorio, G. (2023). Inteligencia artificial y
justicia penal: riesgos, garantías y
oportunidades. Editorial Aranzadi.
Defensoría del Pueblo. (2022). Informe sobre
discriminación estructural en el sistema
judicial ecuatoriano.
https://www.dpe.gob.ec
Eubanks, V. (2018). Automating Inequality:
How High-Tech Tools Profile, Police, and
Punish the Poor. St. Martin’s Press.
Farfán, J., Farfán, J. Farfán Largacha, B., &
Núñez Vera, J. P. (2023). Inteligencia
artificial y Derecho: ¿La justicia en manos de
la IA? Frónesis, 30(2), 173197.
Goodfellow, I., Bengio, Y., & Courville, A.
(2016). Deep Learning. MIT Press.
Ley Orgánica de Protección de Datos
Personales, Ecuador. (2021). Registro
Oficial Suplemento 459.
Ministers of Justice. (2023). Rome Declaration
on Artificial Intelligence and Justice
Systems. https://www.g7italy.it
Organización de las Naciones Unidas para la
Educación, la Ciencia y la Cultura
(UNESCO). (2021). Recomendación sobre
la Ética de la Inteligencia Artificial.
https://unesdoc.unesco.org
Parlamento Andino. (2023). Propuesta de
Lineamientos Éticos sobre el Uso de
Inteligencia Artificial en los Países Andinos.
https://www.parlamentoandino.org
Pérez, A. (2022). Derechos Humanos y nuevas
tecnologías: una interacción conflictiva.
Editorial Civitas.
Reglamento Europeo de Inteligencia Artificial
(UE). (2024). https://eur-lex.europa.eu
Richardson, R. (2021). Algorithmic Policing
and Predictive Justice. AI Now Institute.
Rojas, M. (2023). Integración jurídica y
desafíos de la inteligencia artificial en
América Latina. Editorial Palestra.
Russell, S., & Norvig, P. (2021). Inteligencia
artificial: un enfoque moderno (4.ª ed.).
Pearson.
Ciencia y Educación
(L-ISSN: 2790-8402 E-ISSN: 2707-3378)
Vol. 6 No. 6.1
Edición Especial II 2025
Página 187
Sánchez, M. (2023). Constitución y algoritmos:
Desafíos del Estado constitucional frente a la
inteligencia artificial. Editorial Palestra.
Susskind, R. (2019). Online Courts and the
Future of Justice. Oxford University Press.
Turing, A. (1950). Computing Machinery and
Intelligence. Mind, 59(236), 433460.
UNESCO. (2021). Recomendación sobre la
ética de la inteligencia artificial.
https://unesdoc.unesco.org
Unión Europea. (2024). Reglamento (UE)
2024/865 sobre Inteligencia Artificial (AI
Act). Diario Oficial de la Unión Europea.
Vega, C. (2023). Inteligencia artificial y
derecho comparado: Hacia una convergencia
regional en América Latina. Editorial
Jurídica Continental.
Wachter, S. (2023). Why Fairness Cannot Be
Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI. Computer
Law & Security Review, 46, 105715.
Zolberg, F. (2024). Tecnología, justicia y
derechos fundamentales. Editorial Marcial
Pons.
Esta obra está bajo una licencia de
Creative Commons Reconocimiento-No Comercial
4.0 Internacional. Copyright © Allynton Rigoberto
Corrales Castellano, Samuel Morales Castro,
Duniesky Alfonso Caveda.