En pleno conflicto en Israel, un grupo de investigadores armó un experimento que ha marcado un antes y un después en la forma en que pensamos la seguridad militar. Tomaron fotos oficiales de medios israelíes sobre el impacto de misiles durante una guerra reciente, recortaron fragmentos sin texto ni mapas, y las subieron a una inteligencia artificial (IA) con capacidad visual avanzada. En cuestión de minutos, sin entrenamiento previo ni datos geográficos explícitos, la IA analizó fachadas, tipos de árboles, ángulos de sombra y perfiles de edificios, comparó todo con mapas satelitales y Google Street View, y logró delimitar la zona del impacto dentro de un kilómetro de precisión. Incluso sin saber la ciudad, identificó correctamente el barrio y se acercó en el segundo intento. Fue una demostración desconcertante: imágenes que parecían inocuas sirvieron para revelar ubicaciones sensibles, burlando cualquier control militar o censura tradicional. Lo que antes requería días de trabajo de inteligencia humana y análisis en terreno, se redujo a unos instantes con una herramienta que razona visualmente.

Ese mismo principio cambia múltiples áreas más allá de lo militar. Por ejemplo, existe PIGEON, un proyecto que entrena un modelo con millones de fotos de Google Street View. Cuando se le suministran imágenes personales —una postal, una selfie con un muro particular o una señal de transporte público— el sistema acierta el país en el 95 % de los casos y se aproxima al lugar exacto en decenas de kilómetros. Hoy otras herramientas más agresivas prometen ubicar una imagen con precisión de pocos metros. Basta subir una foto genérica —un jardín, un edificio, una calle cualquiera— para que una IA nos diga dónde fue tomada.

¿Indiferencia personal?

En este contexto, se vuelve casi absurda la idea de que pueda existir algo como un testigo protegido. La figura clásica del testigo que entra en un programa estatal y es reubicado con una identidad nueva, se vuelve inverosímil. Si esa persona publica una foto de su mascota en el patio, una imagen de un café en una esquina cualquiera, o si simplemente aparece en segundo plano en la selfie de otra persona, la IA puede cruzar esos datos, detectar patrones, reconocer el entorno y ubicar su paradero. Ya no hace falta seguir al testigo, ni pinchar teléfonos, ni interceptar cartas. Basta esperar a que se filtre una imagen cualquiera —aunque no haya intención alguna— y dejar que la tecnología haga el resto. La geolocalización ya no necesita mapas, nombres ni ubicaciones: necesita árboles, sombras y edificios.

La IA, presente en todo

En el periodismo sucede algo similar. Un periódico publica una imagen de respaldo o de archivo, de un edificio o una calle con manifestantes al fondo, creyendo que está protegida. Pero la IA lo analiza y ubica la dirección exacta. Esa imagen aparentemente neutra puede delatar a una fuente, un testigo, un manifestante. Y no hace falta que se publiquen datos personales: basta una bandera medio borrada, un cartel difuso en el fondo o la geometría de una ventana. Con IA, se deduce todo.

La medicina tampoco escapa. Modelos visuales avanzados analizan radiografías, tomografías o biopsias de tejidos y sugieren qué órgano está afectado, detectar patrones tumorales y hasta anticipar riesgos sin que lo haga un radiólogo. Profesionales médicos pueden tener un asistente virtual que lee imágenes, compara con millones de casos y sugiere diagnósticos en segundos. Eso revolucionará la salud, pero también plantea dilemas: ¿quién se hace responsable si se equivoca? ¿la máquina, el médico que la usa, el hospital?

En el agro se emplea la IA para inspección vía satélite. Una foto aérea de un lote revela con exactitud el estado del cultivo, la presencia de plagas o el grado de humedad. Antes, los técnicos debían ir al campo, muestrear plantas, medir suelos. Ahora un dron toma fotos y un algoritmo hace el resto. Así se planifica fertilización, riego y cosecha sin pisar la tierra, detectando de forma hiperespecífica enfermedades o sequías incipientes. Incluso en seguros y automóviles esto es visible. Se toma una foto del daño en un paragolpes tras un accidente menor y una IA determina el modelo del vehículo, la velocidad del golpe y quién tuvo la culpa. El trámite es rapidísimo, sin peritos humanos que visiten el lugar. Un sistema automático procesa imágenes, calcula costos y liquida la póliza en tiempo real.

En ciudades donde la vigilancia pública se despliega con cientos de cámaras, se utilizan sistemas capaces de reconocer rostros, seguir trayectos y detectar patrones de movimiento. Si alguien pasa por una calle varias veces, un algoritmo genera una alerta. Un cambio en el peinado, en el abrigo o en los lentes oscuros ya no alcanza para despistar al sistema. Ese mismo principio aplicado a un testigo protegido significa que la persona puede ser detectada caminando por un aeropuerto, entrando a una ferretería o participando de una procesión religiosa, incluso sin hablar, sin interactuar con nadie, sin usar teléfono.

El verdadero problema es que este poder ya no está solo en manos de gobiernos con presupuestos gigantes y agencias ultraespecializadas. Hoy cualquier persona con acceso a herramientas abiertas —algoritmos, modelos preentrenados, una conexión a internet, puede aplicar inteligencia visual y geolocalizar una imagen. Basta una selfie con el fondo suficiente para que un sistema digital reconstruya el barrio, la casa o el recorrido. Bastan dos o tres fotos tomadas desde distintos ángulos para que la identificación sea casi infalible. En definitiva, volvemos a preguntarnos qué queda de la privacidad cuando compartir un viaje o un momento íntimo expone datos geográficos, emocionales y personales sin saberlo. Hasta una publicación aparentemente anodina en redes sociales puede representar una fuente de vulnerabilidad si alguien sabe dónde empieza un algoritmo y cómo deduce. El sistema no se cansa, no se confunde, no juzga: analiza y resuelve con la frialdad de un cálculo preciso.

Hoy vivimos en un escenario donde la frontera entre lo público y lo privado se redibuja con píxeles y coordenadas. Lo personal puede ser reconstruido en pedazos por una IA que no busca un nombre, sino tu lugar. Y aunque un algoritmo no mueva bombas ni cambie leyes, sí redefine cuánto de nosotros queda verdaderamente bajo nuestro control. La pregunta no es si ya sucede, sino cómo vivimos sabiendo que en cualquier imagen que publicamos puede haber una huella que nosotros mismos dejamos sin saberlo. Y si eso ya pone en riesgo a cualquier persona común, mucho más a quien intenta ocultarse de un poder organizado, violento y paciente como el de una mafia. Porque ni siquiera cambiarse el nombre y mudarse de país alcanza cuando la IA sigue indicios que nadie pensaba que podían ser rastreados. Las cosas como son.