¿Has pensado alguna vez que cuando la identidad se vuelve automática, también se automatiza el juicio?

Nuestros sistemas actuales no sólo nos reconocen, también nos segmentan. Si un algoritmo decide que tu patrón de movimiento es anómalo o tu rostro coincide con un perfil en una base de datos, las consecuencias -desde ser detenido hasta que te denieguen un acceso- se despliegan sin que tú hayas consentido ser evaluado.

La sospecha ha sido durante siglos una conjetura humana sometida a prudencia, contexto y responsabilidad. Hoy toma la forma de una inferencia estadística. Pues bien, resulta que las tecnologías de reconocimiento facial se han convertido en el emblema de esta mutación. Lo que antes requería de la memoria del agente y la comparación paciente de rasgos, hoy se ejecuta en milisegundos. Y esto no es únicamente una cuestión de velocidad; va más lejos, es un cambio de naturaleza. La sospecha deja de apoyarse en la percepción humana y se funda en la probabilidad. Hoy un rostro no es solo un rostro: es una plantilla biométrica que se cruza con millones de registros. Existen servicios empresariales que ejemplifican esta lógica.

Veamos. La imagen capturada por una cámara urbana es una fotografía, sí. Pero es, igualmente, un conjunto de vectores que se comunican con bases de datos policiales, comerciales o migratorias. Y nos dan resultados que, a su vez, son señales. Y las señales se convertirán en acciones.

Algo similar ocurre en el ámbito de la policía predictiva. Alguna hay -aunque le cambien el nombre- que ofrecía mapas de calor que indicaban dónde era más probable que se produjera un delito. La herramienta no señalaba culpables concretos -de momento-, pero orientaba la presencia policial hacia determinados barrios. Así se crea un bucle difícil de romper: más vigilancia genera más detecciones; más detecciones alimentan el algoritmo; el algoritmo confirma que ese espacio es problemático. La sospecha deja de ser episódica y se territorializa.

En este contexto ¿cuál es el papel de la decisión humana? Pues, a primera vista, ocurre que el agente ya no parte de una intuición, sino de una alerta. El gestor de seguridad no interpreta hechos aislados, sino valoraciones de riesgo. Y fijaos en esto: negarse a seguir la indicación del sistema exige una justificación; obedecerlo, en cambio, parece lo natural. ¿Qué ha ocurrido? Pues que se ha invertido la carga psicológica de la decisión.

El problema no reside únicamente en la posibilidad de error -que, por supuesto, existe y puede ser grave-, sino en la opacidad del proceso. Los ciudadanos rara vez sabemos que hemos sido evaluados, con qué datos, bajo qué criterios y con qué margen de incertidumbre. La evaluación es silenciosa. No hay notificación previa ni tampoco audiencia contradictoria. ¡Coño! La sospecha se ha convertido en un estado técnico.

Pero hay más: la automatización añade además una dimensión temporal inédita. El juicio ya no se basa solo en lo que has hecho, sino en lo que podrías hacer. Del juicio retrospectivo al juicio prospectivo. Es como una anticipación permanente. Los algoritmos calculan propensiones. Y si de ese cálculo nacen restricciones efectivas, lo que es una hipótesis adquiere la solidez de un hecho.

No trato de negar la utilidad de estas herramientas. En nuestros entornos, complejos, con flujos masivos de personas y datos, la tecnología permite detectar patrones que escaparían a la mirada humana. Por supuesto que sí. Pero debemos comprender que cada patrón es una simplificación. Dicho de otro modo: que todo modelo reduce la realidad para hacerla operativa. La cuestión es qué queda fuera de esa simplificación y quién soporta el precio. La eficiencia se reparte, pero el error no: siempre recae sobre alguien concreto que fue señalado, retenido o marcado en un sistema donde la sospecha deja huellas difíciles de borrar.

Existe, además, un desplazamiento que es cultural. Durante décadas, la sospecha tenía que justificarse ante un tercero: un superior, un juez, la opinión pública. Pero ahora el aval técnico parece suficiente. “Lo dice el sistema” funciona bien como argumento de cierre.

Ocurre, sin embargo, que los algoritmos no son neutrales. Están entrenados con datos históricos que arrastran sesgos sociales, económicos, etc. Si determinadas comunidades han sido vigiladas con mayor intensidad en el pasado, sus registros estarán sobrerrepresentados en las bases de datos. Y, por tanto, el resultado será muy parecido a una profecía autocumplida.

La automatización de la sospecha transforma también la experiencia subjetiva del individuo. No es lo mismo ser observado por una persona que por una red de dispositivos invisibles. La primera mirada puede equivocarse, pero tiene rostro y responsabilidad. La segunda es difusa. Se distribuye en cámaras, sensores y servidores. El ciudadano no sabe ante quién defenderse. La asimetría se amplía.

En el ámbito privado, la lógica es análoga. Las plataformas digitales asignan puntuaciones de confianza, segmentan comportamientos y detectan anomalías. Una compra inusual puede bloquear una tarjeta; un comentario puede activar filtros automáticos; un desplazamiento puede alterar una prima de seguro. La sospecha no es ya patrimonio exclusivo del Estado. Se ha convertido en un servicio.

Todo ello plantea una cuestión de primer orden: ¿qué garantías acompañan a la inferencia automatizada? Si la sospecha tradicional exigía indicios racionales y control judicial, ¿qué estándar debe aplicarse cuando el indicio es una correlación estadística? ¿Cómo se articula el derecho a impugnar una decisión cuyo fundamento técnico resulta ininteligible para el afectado?

La respuesta no puede limitarse a la confianza ciega en la innovación ni al rechazo indiscriminado de la tecnología. Se impone una arquitectura de garantías y de transparencia en los criterios.

La sospecha, en su forma clásica, era incómoda pero limitada. Dependía fundamentalmente de dos cosas: la percepción y el contexto. La versión automatizada es más fría y mucho más expansiva. Opera a escala, en tiempo real y sin pausa. Ni se cansa, ni duda. Esta eficacia es, al mismo tiempo, su fuerza y su riesgo.

El debate, para mí, no es técnico, es político. ¿Qué sociedad estamos construyendo cuando cada gesto puede convertirse en dato y cada dato en alerta? La sospecha ha dejado de ser una herramienta excepcional para convertirse en un estado permanente.

¿Te interesa?