Los agentes de IA van a interactuar entre sí a una escala masiva, y en este momento, no hay nada que impida que el más manipulador gane.Los agentes de IA van a interactuar entre sí a una escala masiva, y en este momento, no hay nada que impida que el más manipulador gane.

Cada agente de IA necesitará un pasaporte | Opinión

2026/03/10 17:26
Lectura de 9 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

Divulgación: Las opiniones y puntos de vista expresados aquí pertenecen únicamente al autor y no representan las opiniones y puntos de vista del equipo editorial de crypto.news.

Vivimos en una era donde los Agentes de IA ya pueden negociar precios, programar servicios y hacer compromisos en nombre de las empresas. Lo que no pueden hacer es demostrar quiénes son o ser responsables de lo que hacen. Esta es la capa faltante de la economía de agentes. Cada sistema a escala eventualmente resuelve este problema. Los teléfonos requieren tarjetas SIM verificadas. Los sitios web requieren certificados SSL. Las empresas deben verificar su identidad antes de aceptar pagos. Los agentes no serán diferentes. Necesitarán pasaportes. No para viajar, sino para confiar. Credenciales que demuestren identidad, establezcan reputación y asocien consecuencias al comportamiento.

Resumen
  • Los Agentes de IA carecen de infraestructura de responsabilidad: Pueden negociar y realizar transacciones, pero aún no pueden demostrar identidad, mantener una reputación persistente o enfrentar consecuencias aplicables.
  • Identidad + reputación + stake forman el "pasaporte": Vinculación de entidad verificada (KYC/KYB), reputación portable y capital vinculado crean incentivos económicos para un comportamiento honesto del agente.
  • La capacidad supera los sistemas de confianza: Protocolos como A2A y MCP permiten la comunicación, pero sin pasaportes de agentes, es probable que ocurra abuso a gran escala o falla sistémica.

Imaginemos algo simple. Tienes un Agente de IA que maneja sin problemas tus citas, tu agenda y tal vez incluso algunas negociaciones de precios en tu nombre. La peluquería de la calle también tiene uno. Tu agente llama al suyo para reservar un corte de pelo. Van y vienen sobre el horario, el precio y tal vez un descuento para horas de menor demanda.

Ahora, el agente del salón ha sido configurado para maximizar los ingresos. Fija precios altos, crea una falsa sensación de disponibilidad limitada y promueve complementos premium que no solicitaste. Bueno, esto no es un comportamiento inusual. Los vendedores humanos hacen esto todo el tiempo. La diferencia es que los Agentes de IA lo harán a escala, a través de miles de conversaciones simultáneas, aprendiendo qué funciona y optimizándolo constantemente. El agente más agresivo gana más ingresos. Así que cada negocio con un agente tiene un incentivo para hacerlo presionar más fuerte. No hay nada en la infraestructura actual que ponga un límite a hasta dónde llega esa presión.

Y esto se está moviendo rápidamente. En el último año, OpenAI, Google, Microsoft, NVIDIA y una serie de proyectos de código abierto lanzaron marcos para construir e implementar agentes. Gartner dice que el 40% de las aplicaciones empresariales incorporarán agentes para finales de 2026. Se proyecta que el mercado de IA agéntica alcanzará los $52 mil millones para 2030. Los agentes están hablando entre sí ahora mismo, y el volumen solo está aumentando.

Así que volvamos al salón. Ahora imagina que tu agente pudiera verificar, antes de que comience la conversación, si el agente de ese salón tiene una identidad verificada vinculada a un negocio real, si otros agentes lo han marcado por tácticas agresivas y si ha depositado una fianza económica que perdería si lo atrapan siendo engañoso. Imagina que tu agente simplemente pudiera negarse a participar si alguna de esas verificaciones falla.

Ese es el pasaporte

Así es como funcionará: Cada restaurante que visitas en Google tiene que crear un perfil comercial y verificar que realmente poseen ese restaurante. Una vez que se establece esa identidad, las reseñas se acumulan. Ya sabemos lo útil que es Google Maps y la legitimidad que proporciona a los negocios existentes. Las experiencias de otras personas con ese restaurante se hacen visibles para ti antes de entrar. Si la comida es mala o el servicio es grosero, eso aparece. El restaurante no puede simplemente eliminar el listado y crear uno nuevo para escapar de las reseñas, porque la verificación está vinculada a su identidad comercial real.

Los Agentes de IA necesitan exactamente esto. Cada agente que opere comercialmente debe estar vinculado a una entidad verificada a través de algo como KYC para individuos o KYB para empresas. El agente del salón estaría registrado bajo la licencia comercial real del salón. Si ese agente es calificado consistentemente como manipulador o deshonesto por los agentes con los que interactúa, esas calificaciones permanecen. Siguen al negocio, no al software. El salón puede actualizar su agente, reentrenarlo o cambiar el modelo subyacente. Pero la identidad persiste, y también la reputación asociada a ella. Así es como evitas el modo de falla más obvio: un agente que es atrapado, desechado y reemplazado por uno idéntico con un historial limpio cinco minutos después.

Para las interacciones cotidianas, la identidad verificada con una capa de reputación es probablemente suficiente. Reservar un corte de pelo, programar un plomero, ordenar suministros. Las apuestas son lo suficientemente bajas como para que las consecuencias reputacionales creen suficiente presión para comportarse bien.

¡Pero no todas las interacciones son un corte de pelo!

Cuando los agentes negocian contratos, manejan adquisiciones o gestionan transacciones financieras, el beneficio potencial de hacer trampa puede ser lo suficientemente grande como para que una mala reseña no importe. Una empresa podría aceptar una reputación dañada si una negociación engañosa genera más de lo que cuesta la pérdida de reservas futuras. Para estas situaciones de mayor valor, necesitas un segundo mecanismo: compromiso económico real.

Aquí es donde las blockchains de proof-of-stake tienen algo que enseñarnos. En Ethereum (ETH), los validadores que quieren participar en asegurar la red tienen que poner su propio capital primero. Si se comportan honestamente, ganan recompensas. Si intentan manipular el sistema, una porción de su capital es destruida automáticamente. Esto ha estado funcionando a escala, con miles de millones de dólares bloqueados, durante años. La razón por la que funciona es simple: cuando tienes algo en riesgo, te comportas de manera diferente que cuando no lo tienes. Llamamos a esto "Compromiso económico real".

El mismo principio se aplica a los agentes. Antes de entrar en una negociación de alto valor, un agente deposita una fianza. Si la interacción se completa con éxito, la fianza es devuelta. Si se descubre que el agente ha utilizado tácticas engañosas, parte o toda la fianza es recortada. El tamaño de la fianza lo establece quien está en el extremo receptor. El agente de un freelancer podría pedir un pequeño depósito. Un sistema de adquisiciones corporativas podría requerir algo sustancial. El mecanismo no necesita a nadie observando cada conversación. Si hacer trampa te cuesta dinero cada vez que te atrapan, y el otro lado puede ver tu historial de haber sido atrapado, el incentivo para hacer trampa cae rápidamente.
La aplicación puede ejecutarse a través de Smart Contracts. Ambos agentes bloquean fondos antes de que comience la negociación, y el contrato libera o recorta según lo que suceda. Debido a que la interacción ya es digital, el contrato no necesita adivinar sobre los resultados del mundo real. Los registros de conversación, los compromisos y las cancelaciones son todos registrados por ambas partes. Las violaciones claras como ausencias, precios demostrablemente falsos o compromisos que se revierten pueden ser aplicadas automáticamente.

Estos dos mecanismos se encuentran dentro del mismo pasaporte y trabajan juntos. La verificación de identidad es la línea de base. Dice: este agente pertenece a una entidad real que puede ser responsabilizada. La reputación se construye sobre esa identidad con el tiempo a medida que los agentes interactúan, se califican entre sí y acumulan un historial. El Staking agrega una capa financiera para interacciones donde la reputación sola no es un elemento disuasorio lo suficientemente fuerte. Juntos, crean un pasaporte que se enriquece con cada interacción. ¿Cuántos compromisos ha mantenido este agente? ¿Cuánto capital ha puesto en riesgo? ¿En cuántas disputas ha estado involucrado y cómo se resolvieron? Un agente que verifica un pasaporte antes de que comience una negociación tiene algo real que evaluar, no una descripción autoescrita de lo que el otro agente afirma que puede hacer.

La buena noticia es que la gente está comenzando a pensar en la capa de comunicación. El protocolo A2A de Google brinda a los agentes una forma de descubrirse entre sí e intercambiar mensajes. El MCP de Anthropic estandariza cómo los agentes se conectan a herramientas y datos externos. NIST lanzó una Iniciativa de Estándares de Agentes de IA en febrero de 2026 y está solicitando activamente aportes sobre identidad y seguridad de agentes. Estos son pasos necesarios. Pero resuelven cómo hablan los agentes, no si se debe confiar en los agentes. Los protocolos te dicen lo que un agente puede hacer. El pasaporte te dice lo que ha hecho, a quién pertenece y lo que arriesga perder.


La industria ha enmarcado la seguridad de los agentes como un problema de alineación: ¿cómo te aseguras de que tu agente haga lo que quieres? Esa es la pregunta interna. La pregunta externa es más difícil. ¿Cómo te aseguras de que su agente no pueda explotar el tuyo? Eso no es un problema de alineación. Es un problema de responsabilidad. Y en este momento, las empresas que construyen la capa de agentes están compitiendo para aumentar la capacidad y la autonomía, sin construir los sistemas de identidad y consecuencias que hacen que la autonomía sea segura a escala.

Cada agente necesitará un pasaporte. Porque en el momento en que los agentes comiencen a negociar, comprometerse y realizar transacciones en nombre de actores económicos reales, la identidad ya no es opcional; se convierte en infraestructura real. La única incertidumbre es el momento: si construimos esa infraestructura deliberadamente, o si el primer fallo a gran escala nos obliga a construirla bajo presión, después de que la confianza ya se haya roto.

Tanisha Katara

Tanisha Katara es la fundadora y directora ejecutiva de Katara Consulting Group (KCG), una empresa de consultoría blockchain que ayuda a los protocolos a resolver sus problemas estructurales más difíciles: Gobernanza, Tokenomics, diseño de Staking, operaciones de nodos y estrategia de lanzamiento al mercado.

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.