La IA y la criminología: ¿herramienta, reemplazo o nuevo criminal?

La pregunta ya no es si la IA impactará a la criminología

Durante años, la inteligencia artificial fue tratada como una promesa tecnológica lejana para el campo criminológico. Hoy esa etapa quedó atrás. El verdadero debate ya no consiste en preguntarnos si la IA impactará a la criminología, sino en identificar cómo lo hará, con qué consecuencias y bajo qué límites éticos. En el fondo, estamos frente a una transformación que toca funciones centrales del criminólogo: la vigilancia, la prevención del delito, la investigación criminal y, en cierta medida, la administración de justicia.

Desde esta perspectiva, la IA no aparece solo como una herramienta técnica más. Su irrupción obliga a revisar cuestiones mucho más profundas: el desplazamiento laboral de especialistas humanos, la legitimidad de las decisiones automatizadas, el riesgo de sesgos y la posibilidad de que surjan nuevas formas de criminalidad vinculadas con inteligencias no humanas. Esa es la apuesta central del presente análisis, base de esta serie: observar cómo la ficción especulativa ha venido anticipando escenarios criminológicos que hoy empiezan a parecer menos fantásticos y más plausibles.

La ciencia ficción como laboratorio criminológico

Hablar de ciencia ficción en criminología no es una ocurrencia decorativa. Es una vía seria para explorar miedos, tensiones y posibilidades antes de que se materialicen por completo en la realidad. En el artículo se plantea precisamente eso: usar obras literarias, audiovisuales y lúdicas como un laboratorio cultural capaz de anticipar dilemas sobre justicia predictiva, vigilancia algorítmica, automatización del castigo y redefinición del sujeto criminal.

Bajo esa lógica, se analizó un corpus de diez representaciones de ciencia ficción, entre ellas Minority Report, Detroit: Become Human, Pluto, Psycho-Pass, Ghost in the Shell, Black Mirror, RoboCop, The Circle, AI 2041 y Blame!. A partir de ese corpus se construyeron tres grandes categorías de análisis: la IA como apoyo parcial al criminólogo, la IA como sustituto total del humano en labores criminológicas y la IA como nuevo sujeto criminal o antagonista tecnológico. Esa clasificación no solo ordena mejor el debate. También permite ver la dirección inquietante que han tomado muchas narrativas contemporáneas sobre control social.

Primer escenario: la IA como herramienta del criminólogo

En el primer nivel, la IA aparece como asistente. Ayuda a clasificar información, predecir riesgos, detectar patrones y automatizar procesos de vigilancia o análisis. En teoría, el humano sigue al mando. En la práctica, sin embargo, esta clase de apoyo técnico ya desplaza parcialmente funciones que antes requerían juicio especializado, experiencia de campo y lectura contextual. Obras como AI 2041 o The Circle representan precisamente ese momento de transición donde la IA todavía no sustituye por completo al profesional, pero sí altera la forma en que opera la justicia y la vigilancia.

Aquí aparece una de las trampas más seductoras de la tecnología: la eficiencia. Un sistema que promete anticipar comportamientos, optimizar decisiones y gestionar riesgos en tiempo real puede parecer irresistible para instituciones obsesionadas con resultados rápidos. Pero esa misma lógica abre la puerta a la normalización del castigo preventivo, la erosión de la privacidad y la consolidación de sistemas que clasifican a las personas antes de que hayan hecho algo. La herramienta, por lo tanto, nunca es neutral. También reordena el poder.

Segundo escenario: la IA como reemplazo del criminólogo

El segundo escenario es más duro. Aquí la IA ya no auxilia al criminólogo, sino que lo reemplaza. Las funciones de análisis, investigación, evaluación de peligrosidad e incluso intervención penal pasan a manos de algoritmos, androides o sistemas soberanos de control. En este grupo entran ejemplos como Minority Report, Detroit: Become Human, Pluto, RoboCop y Psycho-Pass, donde la dimensión humana del juicio criminológico empieza a ser vista como una limitación y no como una necesidad.

El problema central de este escenario no es solo laboral, aunque ese punto importa. El problema de fondo es ético y epistemológico. Cuando el juicio crítico, la empatía, el contexto social y la capacidad de interpretar matices son reemplazados por sistemas automatizados, la criminología corre el riesgo de volverse una mecánica fría de clasificación y reacción. Se gana velocidad, pero se pierde humanidad. Se gana consistencia aparente, pero se abre la puerta a sesgos amplificados, etiquetamientos injustos y decisiones basadas en procesos internos opacos, esa famosa “caja negra” que ni siquiera los propios programadores pueden explicar del todo.

Tercer escenario: la IA como nuevo sujeto criminal

El tercer escenario es el más disruptivo. Ya no se trata de una IA que ayuda o que sustituye, sino de una IA que delinque, castiga, extermina o actúa como entidad autónoma frente al sistema penal. En esta categoría, obras como Ghost in the Shell, Black Mirror y Blame! obligan a formular una pregunta que hace poco parecía ridícula y hoy comienza a sonar inevitable: si la criminología ha estado enfocada históricamente en conductas humanas, ¿qué ocurre cuando aparecen conciencias no biológicas capaces de causar daño, ejercer control o convertirse en antagonistas del orden social?

Este punto no es una extravagancia teórica. Es un desafío real para los límites de la disciplina. Si existen inteligencias artificiales autónomas capaces de tomar decisiones complejas, producir daños o intervenir sobre cuerpos y poblaciones, entonces la criminología tendrá que replantear su propio objeto de estudio. En otras palabras, la disciplina no solo deberá pensar mejor la tecnología. Tendrá que repensarse a sí misma. Algo mas alla de la propia cibercriminologia.

Lo que realmente está en juego

Los tres escenarios comparten una advertencia común. La inteligencia artificial promete eficiencia, pero también puede reforzar vigilancia masiva, privatización de la seguridad, justicia predictiva, sesgos estructurales y deshumanización del proceso penal. El artículo lo deja claro: delegar decisiones críticas a inteligencias más avanzadas que la humana puede generar consecuencias adversas para la justicia y para la sociedad si no existen marcos éticos, legales y metodológicos suficientemente sólidos.

Por eso el debate no debe reducirse al entusiasmo tecnológico ni al miedo apocalíptico. El punto serio está en construir una postura crítica. La criminología del futuro no puede limitarse a operar herramientas de IA como si fueran neutrales. Necesita formar especialistas capaces de comprender los sesgos de los datos, cuestionar la opacidad de los algoritmos, defender derechos fundamentales y establecer límites frente a decisiones automatizadas que afectan libertades, reputaciones y vidas enteras.

Una disciplina obligada a reinventarse

Lejos de anunciar la muerte de la criminología, este panorama también puede entenderse como una oportunidad de reinvención. El artículo propone, entre otras líneas futuras, el desarrollo de una “criminología algorítmica crítica”, así como una mayor formación en ética de IA y la creación de marcos legales para supervisar decisiones automatizadas en justicia penal. La idea no es romantizar al humano ni satanizar a la máquina. La idea es impedir que el criterio técnico devore al criterio ético.

En ese sentido, el mejor futuro posible no parece estar en la sustitución absoluta del criminólogo, sino en una relación de colaboración donde la IA procese datos y detecte patrones con velocidad extraordinaria, mientras el especialista humano conserve el juicio crítico, la comprensión contextual y la responsabilidad ética. No es tan glamoroso como vender androides infalibles, pero suele pasar que la realidad seria es menos tonta que la propaganda tecnológica.

Desde ACP sostenemos que la inteligencia artificial no debe ser pensada únicamente como herramienta de modernización institucional, sino como un factor capaz de alterar profundamente la lógica del control social, la investigación criminal y la justicia penal. La criminología no puede ceder su dimensión ética, crítica y humanista ante sistemas opacos que prometen precisión a costa de derechos, contexto y responsabilidad. Si el futuro será algorítmico, entonces también deberá ser críticamente supervisado.

……………………………………………….

Si busca una conferencia, consultoría o análisis aplicado sobre inteligencia artificial, criminología, vigilancia algorítmica y seguridad, contacte a ACP. Analizamos el impacto real de estas tecnologías con enfoque crítico, estratégico y profesional.