Cuando se habla de vigilancia y control social, uno de los referentes inevitables es el panóptico de Jeremy Bentham. En su diseño, una sola figura, el vigilante, podía observar a múltiples personas privadas de la libertad desde un punto central, sin que estas supieran con certeza cuándo estaban siendo observadas. La eficacia del sistema no dependía solo de la observación real, sino de la posibilidad constante de ser observado. Esa sospecha permanente terminaba disciplinando la conducta. Usando el miedo como control conductual.
Décadas después, Michel Foucault retomó esta idea para mostrar que el panóptico no era solo un modelo arquitectónico, sino una forma de poder. La vigilancia constante inducía en el individuo un estado de visibilidad consciente que hacía funcionar el control casi de manera automática. Desde esta lectura, el castigo deja de ser únicamente fuerza física y se transforma en administración de la conducta. Esa base teórica sigue siendo crucial para entender lo que ocurre hoy con los sistemas algorítmicos.
Planteamos que la llegada del Big Data y la inteligencia artificial produjo un nuevo paradigma: una vigilancia más masiva, más flexible y mucho menos visible. Ya no se trata únicamente de observar a personas en un espacio cerrado. Ahora el monitoreo se despliega de forma distribuida a través de dispositivos inteligentes, redes sociales, plataformas digitales, historiales de navegación, cámaras urbanas, bases de datos y sistemas automatizados capaces de cruzar información en tiempo real.
Este salto es importante porque la IA no solo observa. También recolecta, clasifica, analiza y predice. Ese es el punto donde la vigilancia tradicional se convierte en vigilancia algorítmica. El control deja de descansar exclusivamente en la mirada humana y pasa a operar mediante sistemas que detectan patrones, asignan perfiles de riesgo, priorizan anomalías y modelan decisiones institucionales con una velocidad que antes era impensable.
Apoyándose en Bauman y Lyon, describimos esta transformación como una forma de “vigilancia líquida”. La expresión captura bastante bien el problema: el control contemporáneo ya no es rígido ni fácilmente localizable. Es flexible, adaptable, descentralizado y, en muchos casos, invisible para el ciudadano común. Peor todavía, con frecuencia ni siquiera necesita imponerse por la fuerza, porque se alimenta de la participación voluntaria de quienes son observados.
La gran ironía de esta etapa histórica es que la sociedad fue convencida de que exponerse es deseable. Compartimos trayectos, hábitos, rostros, contactos, rutinas, emociones, compras, búsquedas y opiniones a través de plataformas que convierten esa información en insumo para sistemas de clasificación y predicción. Ya no hace falta encerrar a la población en una prisión para vigilarla. Basta con ofrecerle una pantalla cómoda, una interfaz agradable y una recompensa inmediata en forma de atención, personalización o entretenimiento.
Podemos conectar esta evolución con las ideas de Byung-Chul Han, quien advierte que el control contemporáneo no opera únicamente desde afuera. También se internaliza. La vigilancia se vuelve cotidiana y muchas veces voluntaria. El individuo participa activamente en la producción de los datos que después serán utilizados para observarlo, clasificarlo o influir en su conducta.
Esto cambia la naturaleza misma del control social. Antes, la vigilancia podía sentirse como una imposición externa. Hoy, una parte importante del monitoreo está integrada a la vida diaria bajo formas aparentemente inofensivas: aplicaciones, relojes inteligentes, historiales de consumo, redes sociales, asistentes digitales o sistemas de reputación. El resultado es una modalidad de control más eficiente precisamente porque parece normal. Y cuando algo parece normal, los humanos suelen dejar de discutirlo. Gran costumbre civilizatoria esa.
Aquí entra la inteligencia artificial como factor decisivo. La IA potencia la vigilancia algorítmica porque es capaz de procesar enormes volúmenes de información, detectar patrones difíciles de percibir para un analista humano y generar predicciones de comportamiento. En términos criminológicos y de seguridad, esto puede traducirse en perfiles de riesgo, focos de atención prioritaria, decisiones de patrullaje, monitoreo preventivo o segmentación de sujetos y territorios.
El problema es que este poder operativo no es neutral. Cuando una IA clasifica individuos, comunidades o conductas, también puede reforzar sesgos previos, reproducir desigualdades y expandir formas de etiquetamiento criminal. Advertimos que este nuevo ciber-panóptico no solo observa mejor que el modelo clásico. También tiene la capacidad de limitar derechos como la privacidad, la libertad de expresión e incluso influir sobre ideales y pensamientos mediante filtros, personalización y modelado de percepciones.
Otro punto a tratar, es el que vincula la vigilancia con la mediatización del crimen. La percepción pública sobre la inseguridad, el castigo y la justicia no se forma únicamente a partir de experiencia directa, sino también por lo que muestran los medios y las plataformas. En la era algorítmica, ese proceso se vuelve todavía más delicado, porque los sistemas digitales pueden mostrar distintos contenidos a distintos grupos, reforzando sesgos o burbujas ideológicas.
Eso significa que la vigilancia ya no solo controla cuerpos o espacios. También interviene sobre la percepción social del riesgo. Una ciudadanía expuesta selectivamente a ciertos relatos sobre delito, violencia o amenaza puede terminar aceptando niveles crecientes de monitoreo, castigo o restricción de libertades. No porque haya deliberado críticamente sobre ello, sino porque fue empujada hacia ese marco de interpretación. La IA, en este nivel, no solo vigila. También administra la narrativa del peligro. Manipulación silenciosa.
Aquí la discusión se vuelve especialmente importante para E-Villians y para ACP. Si la vigilancia algorítmica ya no solo analiza la conducta sino que también ejecuta el control en tiempo récord, la figura del criminólogo queda bajo presión. Tradicionalmente, el criminólogo ha sido quien interpreta estructuras de control social, contextos de violencia, procesos de desviación, etiquetamiento y conflicto. Pero cuando sistemas automatizados empiezan a producir diagnósticos, alertas y decisiones operativas, existe el riesgo de que el especialista humano quede relegado a validar lo que la máquina ya clasificó.
Ese desplazamiento sería un error grave. Sostenemos con razón que la criminología debe asumir una posición crítica frente a la vigilancia algorítmica. No basta con usar herramientas nuevas. Hace falta comprender qué sesgos incorporan los datos, qué opacidad existe en los algoritmos, qué intereses políticos o corporativos sostienen esos sistemas y qué daños pueden producir sobre poblaciones concretas. En otras palabras, se necesita una cibercriminología crítica capaz de entender lo que está en juego.
La justificación más frecuente para ampliar sistemas de vigilancia siempre suele ser la misma: más seguridad, más eficiencia, más prevención. Y sí, en algunos casos la tecnología puede ayudar a detectar riesgos reales, distribuir mejor recursos o documentar hechos relevantes. Pero si ponemos atencion, es obvio que el problema aparece cuando esa lógica se expande sin límites éticos ni supervisión suficiente.
La historia enseña que todo mecanismo de control, si no encuentra contrapesos, tiende a extenderse. Con IA, ese impulso se vuelve todavía más peligroso porque la escala y la velocidad cambian radicalmente. Lo que antes requería tiempo, personal, infraestructura y vigilancia visible, hoy puede hacerse de forma automatizada, silenciosa y continua. Eso no significa que toda tecnología de vigilancia deba ser descartada. Significa que ninguna debería incorporarse sin una discusión seria sobre proporcionalidad, derechos, sesgos, transparencia y rendición de cuentas.
La criminología contemporánea enfrenta aquí uno de sus retos más importantes. Ya no basta con estudiar las consecuencias del control social clásico. Ahora debe analizar sistemas que operan a través de datos, modelos predictivos, filtros automatizados y lógicas de vigilancia distribuida. Si no desarrolla categorías, marcos éticos y metodologías suficientes para leer este fenómeno, corre el riesgo de llegar tarde a una transformación que ya está ocurriendo frente a nosotros.
Por eso la pregunta no es solo cómo funciona la vigilancia algorítmica. La pregunta es quién la diseña, qué intereses la impulsan, a quién beneficia, sobre quién recae con más dureza y qué mecanismos de defensa conserva el ciudadano frente a ella. Esa es la discusión que importa. Lo demás es propaganda tecnológica con filtro azul y palabras elegantes.
Desde ACP sostenemos que la vigilancia algorítmica representa uno de los mayores desafíos contemporáneos para la criminología, porque combina tecnología, poder y control social en formas cada vez más opacas y normalizadas. El problema no es únicamente técnico. Es ético, político y jurídico. Si la inteligencia artificial será utilizada para observar, clasificar y anticipar conductas, entonces la criminología debe responder con una postura crítica que defienda derechos, cuestione sesgos y exija límites claros frente a cualquier forma de vigilancia automatizada. ………………………………………………
Si busca una conferencia, consultoría o análisis aplicado sobre vigilancia algorítmica, inteligencia artificial, criminología, control social y riesgos éticos en seguridad, contacte a ACP. Traducimos estos debates complejos en diagnósticos claros, críticos y útiles para la toma de decisiones.