La criminología lleva mucho tiempo intentando anticipar dónde, cuándo y bajo qué condiciones ocurren ciertos delitos. Esa aspiración no nació con la inteligencia artificial. Lo que sí cambia con la IA y el machine learning es la escala, la velocidad y la ambición del proyecto. El artículo base de esta serie lo plantea con claridad: la llamada justicia predictiva podría volverse realidad a partir del uso de grandes volúmenes de datos históricos, variables geográficas, información demográfica y otros factores utilizados para identificar áreas o individuos con mayor probabilidad de cometer o padecer un delito.
Visto desde afuera, el planteamiento parece lógico. Si un sistema puede detectar patrones mejor que un humano, quizá también pueda ayudar a prevenir hechos violentos antes de que se consumen. Ese es precisamente el núcleo seductor de la justicia predictiva: promete eficiencia, anticipación y una aparente racionalidad libre de errores emocionales. El problema, como casi siempre cuando un sistema promete demasiado, es que debajo del brillo técnico suele esconderse una concentración peligrosa de poder.
Pocas obras representan mejor esta fantasía que Minority Report. En el artículo, esta película aparece como uno de los ejemplos más nítidos de justicia predictiva llevada al extremo: un sistema que anticipa crímenes antes de que ocurran y elimina la necesidad de investigación criminal tradicional. El resultado es un modelo donde la función criminológica deja de centrarse en comprender un hecho consumado y se transforma en mera ejecución técnica de una predicción.
Lo inquietante de este escenario no está solo en la tecnología, sino en el cambio de lógica. Cuando el delito todavía no existe, pero el sistema actúa como si ya estuviera consumado, aparecen de inmediato dilemas sobre libre albedrío, presunción de inocencia y legitimidad del castigo. Minority Report no es importante porque imagine gadgets futuristas, sino porque formula una pregunta que hoy ya no suena tan absurda: ¿cuánto está dispuesto a sacrificar un sistema de justicia en nombre de la prevención total?
En su versión más moderada, la justicia predictiva suele presentarse como una ayuda técnica para orientar patrullajes, focalizar zonas críticas o distribuir recursos. Pero la frontera entre análisis preventivo y castigo anticipado es más frágil de lo que muchos quieren admitir. El artículo advierte que una IA entrenada con datos suficientes puede identificar áreas o personas con mayor probabilidad de involucrarse en hechos delictivos, pero también subraya que ese mismo proceso puede inclinar la toma de decisiones hacia modelos que refuerzan estereotipos y afectan la neutralidad de las herramientas contra el crimen.
Ese desplazamiento es crucial. Una cosa es usar información para comprender tendencias generales. Otra muy distinta es permitir que ese cálculo determine un trato diferenciado sobre personas concretas, barrios concretos o grupos concretos. En ese punto, la predicción deja de ser una herramienta analítica y se convierte en una tecnología de clasificación social. Y cuando el Estado empieza a clasificar sujetos por riesgos proyectados, la distancia entre prevención y sospecha institucional permanente se acorta a limites peligroso y acordes a una teoria del etiquetamiento con algortitmos extras.
Uno de los puntos más potentes de nuestro analisis, es la referencia a la llamada “caja negra” de la IA. Incluso cuando el sistema produce resultados aparentemente útiles, a veces ni siquiera sus propios programadores pueden explicar con claridad el recorrido interno que siguió la red neuronal para llegar a cierta conclusión. En contextos comerciales eso ya sería problemático. En materia penal o de seguridad pública, es directamente explosivo.
Si un algoritmo influye en decisiones de patrullaje, priorización de vigilancia, intervención policial o incremento del control sobre una zona, pero nadie puede explicar de forma transparente cómo llegó a su diagnóstico, entonces la rendición de cuentas se vuelve casi imposible. El sistema empieza a pedir obediencia sin explicación. Y la historia demuestra que cuando una tecnología reclama confianza ciega, casi nunca es porque merezca tanta.
La justicia predictiva suele venderse como objetiva porque trabaja con datos. Ese argumento es uno de los más engañosos del debate. Es nuestra postura insistir en que el análisis predictivo puede reforzar estereotipos, particularmente cuando se alimenta de información históricamente sesgada o de prácticas institucionales desiguales. No hay magia aquí: si los datos de entrada reflejan prejuicios, selectividades o discriminaciones previas, el sistema aprenderá exactamente eso, solo que más rápido y con apariencia técnica.
El resultado puede ser devastador. Comunidades enteras pueden terminar bajo vigilancia reforzada no porque exista una verdad neutral sobre ellas, sino porque el sistema heredó registros históricos que ya estaban cargados de sesgo. En lugar de corregir injusticias, la tecnología puede consolidarlas bajo una capa de legitimidad matemática. Es el prejuicio de siempre, pero ahora vestido de dashboard, puntuación de riesgo y lenguaje técnico lo bastante aburrido como para que muchos no lo cuestionen.
Como cientificos de la criminologia, debemos encender las alarmas de inmediato: incrementar la supervisión sobre una zona específica puede desencadenar procesos de etiquetamiento criminal sobre quienes viven allí. Es decir, la predicción no solo describe una supuesta realidad delictiva. También puede ayudar a producirla socialmente, modificando la percepción pública, la autopercepción comunitaria y la forma en que las autoridades tratan a ciertos grupos.
Eso importa porque la criminología lleva décadas estudiando cómo el etiquetamiento puede reforzar trayectorias de exclusión. Cuando una comunidad empieza a ser leída institucionalmente como espacio de riesgo permanente, las intervenciones, controles y sospechas tienden a multiplicarse. Lo que en teoría era una medida neutral de prevención puede convertirse en una maquinaria que fabrica desconfianza, estigma y trato desigual. La predicción, entonces, deja de ser una fotografía y pasa a ser una fuerza que interviene sobre el mundo que dice medir.
Aquí aparece uno de los nudos jurídicos y éticos más serios de todo el asunto. Si el sistema anticipa riesgo antes de que exista un hecho consumado, ¿cómo se protege la presunción de inocencia? En nuestro analisis conectamos esta preocupación de forma directa con Minority Report, donde el debate sobre el libre albedrío y el castigo previo al delito es central. Y con toda razón: un sistema que actúa sobre probabilidades puede empezar a tratar a personas inocentes como amenazas potenciales, sin que exista todavía conducta comprobada alguna.
La cuestión no es menor. El derecho penal moderno no fue diseñado para castigar futuros posibles, sino hechos verificables y responsabilidades comprobables. Si la lógica predictiva gana demasiado terreno, corremos el riesgo de desplazar el eje del sistema desde la responsabilidad individual probada hacia la gestión actuarial del riesgo. Y ese cambio, aunque algunos lo vendan como modernización inteligente, puede erosionar fundamentos básicos de la justicia.
Conviene admitir algo: no toda herramienta predictiva es ilegítima por definición. Existen usos analíticos que pueden ser útiles para comprensión territorial, prevención situacional o asignación estratégica de recursos. El problema empieza cuando la eficiencia técnica se vuelve el único criterio y la dimensión humana, contextual y ética queda arrinconada. Entiendase que el criminólogo no debería desaparecer detrás del sistema, sino conservar un papel crítico frente a los sesgos, opacidades y riesgos del modelo.
Eso implica varias cosas. Implica supervisión humana real. Implica transparencia metodológica. Implica límites legales. Implica revisar los datos de entrenamiento. Implica mecanismos de responsabilidad cuando el algoritmo daña. E implica, sobre todo, negarse a aceptar que la capacidad de calcular equivalga automáticamente a la capacidad de juzgar bien. Porque no, una predicción no es lo mismo que una decisión justa, aunque los promotores del negocio tecnológico a veces hablen como si fueran sinónimos.
Nuestra critica deja abierta una ruta clara: si la justicia predictiva ya está transformando la vigilancia, la prevención y la seguridad pública, entonces la criminología necesita responder con nuevas herramientas conceptuales, marcos éticos y formación especializada. No basta con aplaudir la innovación ni con temerla desde lejos. Hace falta comprenderla, medirla críticamente y discutir sus efectos sobre derechos, desigualdades y legitimidad institucional.
En otras palabras, el futuro no se juega solo entre programadores, policías y empresas tecnológicas. También se juega en la capacidad de la criminología para intervenir en este debate antes de que la lógica predictiva se normalice sin resistencia suficiente. Y esa normalización, como muestra el artículo, ya está bastante avanzada en la imaginación social y en la cultura contemporánea.
El gran riesgo de la justicia predictiva no es simplemente que falle. Todos los sistemas fallan. El riesgo más serio es que funcione lo suficiente como para convencer a instituciones enteras de que vale la pena ampliar su alcance sin atender sus costos éticos, sociales y jurídicos. Cuando eso ocurre, la excepción se vuelve rutina, la probabilidad se vuelve sospecha y la prevención termina pareciéndose demasiado a una administración masiva del miedo.
Por eso este debate importa tanto. Porque en nombre de prevenir el delito podríamos terminar aceptando un modelo que sacrifica libertad, contexto y dignidad humana a cambio de promesas estadísticas que nunca son tan neutrales como parecen.
Desde ACP sostenemos que la justicia predictiva no puede evaluarse solo por su capacidad técnica para anticipar riesgos. Debe examinarse también por sus efectos sobre la presunción de inocencia, el etiquetamiento criminal, la transparencia institucional y la reproducción de sesgos sociales. Una herramienta que predice no es automáticamente una herramienta justa. En materia penal y de seguridad, cualquier sistema algorítmico debe estar subordinado a principios éticos, jurídicos y criminológicos claros, no al revés.
Si busca una conferencia, consultoría o análisis aplicado sobre justicia predictiva, inteligencia artificial, criminología, sesgos algorítmicos y riesgos éticos en seguridad pública, contacte a ACP. Convertimos estos debates complejos en análisis críticos, claros y útiles para la toma de decisiones.