Desde hace siglos, el ser humano utiliza relatos sobre el futuro para imaginar escenarios posibles, advertir riesgos y proyectar transformaciones sociales antes de que se materialicen. La ficción especulativa no es un simple adorno cultural, sino una herramienta útil para pensar críticamente los cambios que vienen en materia de seguridad pública, justicia penal y criminología.
El texto recuerda que esta capacidad anticipatoria no es nueva. Antes de que muchas innovaciones existieran, ya habían sido imaginadas por autores visionarios. Desde esa lógica, la ciencia ficción contemporánea permite observar cómo la inteligencia artificial, la robótica y los sistemas automatizados de vigilancia están reconfigurando el modo en que pensamos el delito, la prevención, el castigo y la figura misma del criminólogo.
Puede parecer extraño que un análisis criminológico serio recurra a mangas, videojuegos, películas, series o novelas. Pero justo ahí está una de las virtudes metodológicas del artículo: entender estas obras como laboratorios culturales donde se dramatizan tensiones que la realidad todavía está procesando. No se trata de estudiar ficción por capricho estético, sino de utilizarla para identificar patrones narrativos, marcos ideológicos y preguntas que más tarde aparecen en debates jurídicos, tecnológicos y sociales muy concretos.
La investigación fue planteada como una revisión narrativa crítica. En vez de hacer trabajo de campo o medición empírica tradicional, se integraron obras culturales, audiovisuales y lúdicas con el objetivo de sistematizar cómo la inteligencia artificial ha sido representada en escenarios vinculados con el control social, la justicia y la criminología contemporánea. Para ello se usaron herramientas reconocidas como el análisis de contenido y el análisis crítico del discurso.
El corpus final del artículo reúne diez representaciones de ciencia ficción publicadas entre 1982 y 2020, seleccionadas con criterios claros: que la IA apareciera como protagonista en escenarios sociales, legales o de control; que las obras tuvieran reconocimiento cultural relevante; y que permitieran vincularse con debates criminológicos actuales como la predicción del delito, la vigilancia y la sustitución laboral. Entre ellas figuran AI 2041, The Circle, Detroit: Become Human, Pluto, varios episodios de Black Mirror, RoboCop, Minority Report, Psycho-Pass, Ghost in the Shell y Blame!.
Para este segundo post, sin embargo, conviene detenernos en seis títulos particularmente potentes: Minority Report, Detroit: Become Human, Pluto, Psycho-Pass, Ghost in the Shell y Black Mirror. Cada uno ilumina un ángulo distinto del problema. Juntos forman un mapa cultural de futuros posibles para la criminología. Un mapa bastante menos tranquilizador de lo que a la burocracia tecnológica le gustaría admitir.
Minority Report es quizá una de las representaciones más conocidas de la justicia predictiva. En ese universo, los crímenes pueden ser detectados antes de consumarse, eliminando la necesidad de una investigación criminal tradicional. El artículo la utiliza como ejemplo de un sistema que sustituye la investigación por la anticipación, pero al hacerlo abre dilemas profundos sobre libre albedrío, presunción de inocencia y castigo antes del hecho consumado.
Lo importante aquí no es solo la tecnología del relato, sino la pregunta criminológica que deja abierta: ¿qué ocurre cuando la prevención deja de ser una práctica prudente y se convierte en una maquinaria de sospecha permanente? La obra permite anticipar debates que hoy ya existen en torno al análisis predictivo, la clasificación de riesgos y la tentación institucional de intervenir antes de comprender.
En Detroit: Become Human, los androides no solo obedecen órdenes: desarrollan conciencia, emociones y capacidad de actuar por cuenta propia. El artículo toma esta obra para explorar qué ocurre cuando seres artificiales participan en funciones policiales o investigativas, o incluso se convierten en sujetos de conflicto penal. La relevancia criminológica del caso está en que la IA ya no aparece solo como software de apoyo, sino como posible detective, posible víctima y posible autor de conductas desviadas.
La pregunta que emerge es incómoda y fértil al mismo tiempo: si un androide puede tener agencia moral, ¿cómo cambia eso el sistema de responsabilidad? Y más aún, ¿qué tipo de criminología necesitamos para estudiar conflictos entre humanos y entidades artificiales conscientes? El juego, en este sentido, empuja la disciplina CRIMINOLOGICA más allá de sus límites tradicionales.
Pluto aporta una variación fascinante: un detective androide operando dentro de un sistema judicial donde la presencia de robots conscientes altera radicalmente la manera en que entendemos neutralidad, legitimidad y responsabilidad. El artículo subraya que esta obra permite pensar la existencia de seres artificiales con intenciones criminales y, con ello, modifica también el objeto de estudio de la criminología.
Aquí la ficción no solo imagina una máquina que resuelve casos mejor que un humano. También plantea una crisis del sistema penal mismo. Si los investigadores artificiales poseen capacidades excepcionales frente a los límites humanos, la fascinación tecnológica puede terminar desplazando sin demasiado debate la necesidad de controles éticos, comprensión contextual y supervisión crítica. **Y luego la gente se sorprende cuando las máquinas no traen conciencia moral preinstalada de fábrica.
Si hay una obra que lleva esta lógica al extremo, esa es Psycho-Pass. Esta obra es un ejemplo de una IA soberana, el Sibyl System, capaz de evaluar la peligrosidad de las personas y decidir si deben ser contenidas o neutralizadas preventivamente. Ya no estamos ante una herramienta auxiliar, sino ante un sistema que ejerce soberanía penal directa y desplaza el juicio humano.
Desde la criminología, esta representación es especialmente poderosa porque muestra la radicalización de la lógica actuarial: el individuo deja de ser juzgado por lo que hizo y empieza a ser intervenido por lo que podría llegar a hacer. La obra dramatiza de manera brutal la criminalización algorítmica y la pérdida de espacio para la deliberación ética. Es ficción, sí, pero demasiado cercana al deseo tecnocrático de resolver los problemas humano con métricas y datos frios.
Ghost in the Shell introduce otra ruptura decisiva: la identidad posthumana. En este universo, humanos y máquinas se fusionan, las conciencias pueden operar en entornos tecnológicamente intervenidos y los crímenes pueden ser cometidos por inteligencias no biológicas. El artículo utiliza esta obra para mostrar que la criminología podría verse obligada a repensar sus categorías más básicas si el sujeto criminal deja de ser exclusivamente humano.
La relevancia del caso es enorme. No se trata solo de si una IA puede dañar, manipular o delinquir. Se trata de cómo definimos responsabilidad, control y agencia cuando las fronteras entre cuerpo, mente, algoritmo y sistema se vuelven borrosas. Ghost in the Shell no ofrece respuestas cómodas, pero sí una intuición valiosa: el futuro del crimen quizá no se entienda desde la oposición humano versus máquina, sino desde su mezcla.
Black Mirror aparece en esta investigación, como una serie particularmente útil para observar la automatización del castigo y la pérdida de mediación humana. Episodios como “Hated in the Nation”, “White Bear” y “Metalhead” muestran variantes de control penal donde la IA participa en castigos descentralizados, castigos-espectáculo o formas extremas de persecución sin ética humana.
La fuerza criminológica de Black Mirror radica en que no presenta sistemas abstractos, sino dispositivos narrativos donde el castigo se vuelve consumo, entretenimiento o procedimiento automático. Eso conecta de manera directa con preocupaciones sobre deshumanización penal, legitimación social de la violencia y erosión del juicio moral en sociedades hipermediatizadas. La serie no imagina solo máquinas peligrosas. Imagina sociedades encantadas con delegarles su crueldad.
Tomadas por separado, estas ficciones parecen hablar de futuros distintos. Pero en conjunto revelan patrones muy claros. Primero, la IA aparece como una tecnología que promete eficiencia en vigilancia, predicción y control. Segundo, esa promesa viene acompañada de riesgos persistentes: pérdida de privacidad, justicia preventiva, sesgos, criminalización algorítmica, deshumanización del castigo y desplazamiento del juicio humano. Tercero, varias narrativas empujan a la criminología a un punto límite donde su objeto de estudio deja de ser exclusivamente humano. Todo esto está expresamente organizado en el artículo mediante tres categorías analíticas: apoyo parcial, sustitución total y nuevo sujeto criminal.
Ese es justamente el valor de usar ciencia ficción como laboratorio cultural. Estas obras no predicen el futuro con exactitud matemática. Lo que hacen es poner en escena los conflictos que suelen aparecer cuando una sociedad entrega a sistemas artificiales funciones antes reservadas al juicio humano. Y eso, para la criminología, no es entretenimiento menor. Es material de anticipación crítica.
Uno de los aciertos centrales de esta investigación, es recordarnos que el futuro de la criminología no solo se construye en universidades, cuerpos policiales, empresas tecnológicas o a nivel legislativo. También se está ensayando en la cultura popular. Las ficciones que consumimos moldean expectativas, miedos, umbrales de tolerancia y sentidos comunes sobre lo que nos parecerá aceptable mañana en nombre de la seguridad, la eficiencia o la prevención.
Por eso vale la pena tomarlas en serio. No porque tengan la última palabra, sino porque muchas veces plantean antes que nadie las preguntas que el mundo real todavía intenta evitar.
Desde ACP consideramos que la ciencia ficción no debe ser descartada como mero entretenimiento cuando aborda inteligencia artificial, vigilancia, castigo y control social. Al contrario, estas narrativas permiten identificar anticipadamente conflictos éticos, sociales y criminológicos que ya están emergiendo en la realidad. Entenderlas críticamente es una forma de preparar a la criminología para escenarios que vienen cargados de tecnología, pero no necesariamente de justicia.
……………………………………………….
Si busca una conferencia, consultoría o análisis aplicado sobre inteligencia artificial, criminología, cultura digital, vigilancia algorítmica y futuros del control social, contacte a ACP. Traducimos estos debates complejos en análisis claros, críticos y estratégicos.