Los agentes de IA invisibles que están definiendo tus métricas de producto
Cuando hablamos de agentes de IA, casi siempre hablamos de acción. Agentes que generan, deciden, ejecutan o coordinan. Son los visibles, los que protagonizan demos y roadmaps.
Pero en productos reales, sobre todo en sistemas complejos en producción, los agentes más críticos no son los que hacen cosas, sino los que observan y controlan lo que otros agentes hacen.
Hay dos roles que veo sistemáticamente sub-diseñados: el agente evaluador, que analiza el trabajo de otros agentes antes de que llegue al usuario, y el agente auditor, que observa el comportamiento del sistema a lo largo del tiempo. Sin ellos, hablar de KPIs, UX y confianza es, como mínimo, incompleto.
El agente evaluador: medir antes de mostrar

El agente evaluador actúa en un punto incómodo pero esencial del sistema: justo antes de que el output se vuelva experiencia. No ejecuta tareas ni decide sobre el dominio; su trabajo es evaluar calidad, coherencia y adecuación al contexto.
En muchos productos, el patrón sigue siendo el mismo: un agente genera algo, el sistema lo muestra y el usuario descubre el error. Desde UX, eso no es un problema técnico; es una decisión de diseño que casi siempre se paga después.
Un agente evaluador bien diseñado permite que el sistema haga algo fundamental: dudar. Puede detectar inconsistencias, estimar incertidumbre y decidir si es mejor frenar, pedir aclaración o escalar a un humano. No reemplaza a nadie, pero evita que la experiencia falle de forma visible.
Por eso, en la práctica, no suele ser buena idea resolver este rol con modelos débiles o excesivamente optimizados. Evaluar y juzgar el trabajo de otros agentes no es una tarea simple: requiere comprensión contextual, criterio y capacidad de detectar matices. En la mayoría de los casos, esto implica usar LLMs potentes, incluso cuando los agentes “ejecutores” pueden ser más livianos.
Ese pequeño cambio suele tener un impacto enorme en métricas de producto, aunque casi nunca aparece en un roadmap. Menos errores expuestos, menos retrabajo humano, menos tickets, más sensación de control y una percepción mucho más alta de confiabilidad. Cuando este agente no existe, la evaluación se delega silenciosamente al usuario. Y eso siempre termina siendo caro.
El agente auditor: mirar el sistema, no el output

El agente auditor cumple otro rol, aún menos visible. No mira resultados individuales, sino comportamientos acumulados. Observa cómo el sistema se comporta con el tiempo.
Es el agente que permite detectar si otros agentes escalan demasiado, si evitan decisiones difíciles o si empiezan a degradar la calidad sin que nadie lo note. No es logging ni observabilidad técnica: es observabilidad de comportamiento.
Y, al igual que con el evaluador, auditar no es una tarea trivial. Requiere interpretar patrones, entender intención, detectar desviaciones sutiles y leer el sistema como un todo. En muchos casos, también demanda modelos más capaces, porque el problema no es detectar eventos, sino comprender comportamientos.
En sistemas especialmente complejos, aparece además otro patrón interesante: no alcanza con un solo evaluador o un solo auditor. Es habitual diseñar agentes especializados, cada uno enfocado en un aspecto distinto (calidad, compliance, riesgo, experiencia), coordinados por un evaluador manager o un auditor manager que orquesta, prioriza y decide cuándo escalar.
Sin esta capa, muchas preguntas clave simplemente no pueden responderse. ¿Cuántas decisiones fueron correctas desde lo técnico pero malas desde la experiencia? ¿Cuántas veces el sistema “funcionó” mientras erosionaba la confianza? Sin esa mirada, el sistema puede seguir operando… mientras empieza a fallar lentamente, sin que nadie sepa exactamente por qué.
Un problema de diseño, no de ingeniería
Estos agentes suelen ignorarse porque no tienen UI, no generan features visibles y no lucen bien en una demo. Pero en realidad son contratos de comportamiento.
Diseñarlos implica definir responsabilidades, límites, jerarquías y métricas antes de escribir código. Implica asumir que UX no es solo interfaz, sino también cómo un sistema decide, duda, corrige y se controla a sí mismo, incluso cuando nadie lo está mirando.
La mayoría de los productos con IA se preguntan qué puede hacer un agente. Los productos maduros se preguntan quién lo controla, cómo se lo evalúa y qué pasa cuando el sistema empieza a desviarse.
Ahí aparecen el agente evaluador y el agente auditor —a veces como roles únicos, a veces como sistemas completos de agentes especializados. Invisibles, silenciosos y poco glamorosos, pero decisivos. Son los que determinan si un producto escala con confianza… o si se vuelve frágil sin que nadie lo note.