Hay una frase que Avinash Kaushik lleva años repitiendo de distintas formas, y que sigue siendo tan vigente como el primer día: los datos no toman decisiones, las personas sí. La IA no es la excepción. Es una herramienta extraordinaria, pero herramienta al fin. Y como cualquier herramienta poderosa, en manos equivocadas (o sin manos en absoluto) puede hacer tanto daño como bien. El entusiasmo alrededor de la automatización inteligente es legítimo. Los avances en modelos de lenguaje, machine learning aplicado al marketing y plataformas de activación han abierto posibilidades que hace apenas cinco años parecían reservadas para las grandes consultoras o los laboratorios de las big tech. Hoy, empresas medianas pueden acceder a tecnología que analiza millones de eventos, predice comportamientos de compra y optimiza pujas en tiempo real. Eso es extraordinario. El problema empieza cuando "automatización" se convierte en sinónimo de "sin supervisión".
Los ejemplos de IA mal supervisada se acumulan con inquietante regularidad. Soluciones de optimización de copies que, durante campañas de Black Friday, generan anuncios prometiendo descuentos o beneficios que simplemente no existen, porque el modelo aprendió a maximizar el CTR sin entender que hay un contrato implícito entre la marca y su audiencia. O chatbots de negociación que, ante usuarios creativos, terminan "acordando" regalar productos o servicios porque nadie definió con claridad los límites de lo negociable. La IA cumplió su objetivo declarado (cerrar la conversación, reducir la fricción, maximizar el engagement) pero ignoró por completo el contexto empresarial, ético y legal en el que operaba.
Esto no es un fallo de la tecnología. Es un fallo de diseño humano. Cada uno de esos sistemas fue desplegado por alguien que confió en que el modelo "ya sabía lo que hacía". Y el modelo, claro, no sabe nada que no le hayamos enseñado a saber. Kaushik tiene otro principio que aplica perfectamente aquí: la diferencia entre una métrica y un objetivo de negocio. Puedes optimizar perfectamente para una cosa y destruir completamente la otra. La IA no distingue entre ambas a menos que se lo expliquemos. Es brillante ejecutando instrucciones, pero es terrible infiriendo intenciones.
Desde FiT y t2ó, la respuesta a este dilema tomó forma en dos soluciones que comparten una misma filosofía de fondo: la automatización como amplificador del criterio humano, no como sustituto de él. ClaudIA for Offline resuelve uno de los problemas más concretos del marketing digital actual: la desconexión entre lo que ocurre en el mundo real —una venta, una cancelación, un cambio de estatus en el funnel— y lo que las plataformas de medios ven y aprenden. La solución automatiza ese puente de datos, pero lo hace dentro de una arquitectura donde los equipos definen qué fluye, cómo y cuándo. En entornos cookieless, donde la señal escasea, esta capa de gobernanza no es un detalle operativo: es lo que garantiza que los algoritmos de puja aprendan del negocio real y no de un proxy cada vez más ruidoso.
ClaudIA for Value añade una capa predictiva: analiza el comportamiento de los usuarios para estimar su valor futuro para el negocio —probabilidad de conversión, propensión a cancelar, potencial de lifetime value— y traduce esa estimación en señales accionables para las plataformas de medios. Lo interesante, más allá del resultado, es el diseño del proceso: los modelos se entrenan, evalúan y validan antes de activarse, con equipos humanos que interpretan los outputs y deciden qué se aplica y qué no. En sectores como hospitality o energía, donde un lead mal valorado puede distorsionar semanas de aprendizaje algorítmico, esa supervisión marca la diferencia entre optimizar para el negocio o simplemente para el volumen.
CustomIQ opera en un territorio aparentemente más acotado —la generación y mantenimiento de copies para Google Ads— pero ilustra perfectamente el mismo principio. El reto que resuelve es real: anunciantes con catálogos amplios, múltiples idiomas y promociones que cambian con frecuencia no pueden mantener la calidad y relevancia de sus anuncios de forma manual. La IA generativa puede hacerlo a escala, pero sin estructura se convierte exactamente en el tipo de sistema que describíamos antes: uno que optimiza para la métrica sin entender el contexto. La respuesta de CustomIQ son los sistemas de control integrados en la propia plataforma —reglas de negocio, revisión de traducciones, solicitud de cambios puntuales, notificaciones ante cada modificación— que convierten a la IA en un colaborador supervisado y no en un agente autónomo. El equipo siempre sabe qué cambió, por qué, y tiene la posibilidad de intervenir antes de que el anuncio llegue al usuario.
El debate sobre los límites de la IA no es solo cosa del marketing. Hace pocas semanas, Anthropic —la compañía detrás del modelo Claude— protagonizó uno de los episodios más reveladores de los últimos años en la industria. En julio de 2025, Anthropic había firmado un contrato de 200 millones de dólares con el Departamento de Defensa de los Estados Unidos, Humai, convirtiéndose en la primera IA de frontera desplegada en redes militares clasificadas. Pero la relación se deterioró cuando el Secretario de Defensa exigió que Anthropic permitiera el uso de Claude "para todos los propósitos legales", sin restricciones de la compañía sobre armas autónomas o vigilancia masiva.
La respuesta de Dario Amodei fue clara: en un conjunto estrecho de casos, la IA puede debilitar, en lugar de defender, los valores democráticos. Y que casos como la vigilancia masiva y las armas autónomas están fuera de lo que la tecnología actual puede hacer de forma segura y confiable. El argumento de Anthropic estaba respaldado por pruebas internas: los modelos de IA actuales no son lo suficientemente fiables para tomar decisiones letales sin un humano en el circuito. Humai no era una posición política, era una evaluación de ingeniería. Y eso es exactamente lo que diferencia a una compañía que piensa en el largo plazo de una que simplemente quiere ganar el contrato. La historia tiene ecos directos en lo que pasa en el marketing digital todos los días, solo que con menos dramatismo y menos cámaras. La presión por automatizar más, más rápido y con menos fricción humana es constante. Y la tentación de confiar ciegamente en que "el modelo ya lo resuelve" es real. Pero como demostró Anthropic, incluso la IA más avanzada del mundo necesita límites diseñados por personas que entienden el contexto en el que opera.
La automatización inteligente es, ante todo, una decisión humana
La IA suma cuando está bien orquestada: cuando hay datos de calidad, objetivos de negocio bien definidos, equipos que saben interpretar los outputs y procesos de aprobación que garantizan que la máquina no actúa en el vacío. Resta cuando se despliega como sustituto del criterio humano, cuando se optimiza para métricas sin entender el negocio o cuando se delega en ella la responsabilidad que le corresponde al equipo. El futuro del marketing no es humano ni artificial. Es la combinación de ambos, con roles bien definidos. La IA tiene una capacidad de procesamiento, escala y velocidad que ningún equipo humano puede igualar. Los humanos tienen algo que ningún modelo tiene: criterio, contexto y consecuencias. La automatización inteligente es la que entiende eso.