¿Ha llegado el punto de inflexión de la IA Agentic? Cuando la IA aprenda a «actuar por sí misma», ¿cómo se puede reconstruir la frontera de seguridad de Web3?

PANews
ETH-4,93%

Autor: imToken

¿Después de este Año Nuevo chino, también sientes que todo el mundo Web3 parece haber sido de repente conquistado por las “langostas”?

Todo tipo de Agentes de IA, agentes automatizados, protocolos de IA en la cadena surgen sin parar, desde OpenClaw hasta una serie de marcos de agentes que casi se convierten en la nueva narrativa central. Pero si retrocedemos un poco en la línea de tiempo, descubrimos que esta ola en realidad tiene antecedentes claros.

Ya el 25 de febrero, en la conferencia telefónica de resultados financieros de NVIDIA, el CEO Jensen Huang hizo una afirmación importante: la IA Agentic (agente) ha llegado a un punto de inflexión. En su opinión, la IA está experimentando un cambio crucial, dejando de ser solo una herramienta para comenzar a percibir, planificar y ejecutar tareas complejas de forma activa.

Y cuando esta capacidad de “autonomía” entra en el mundo Web3, se enciende una discusión sobre control, límites de seguridad y el papel de los humanos.

1. Agentic AI: de “asistente” a “ejecutor”

Antes de hablar de este tema, primero debemos entender el concepto de IA Agentic (agente).

Desde su significado literal, es fácil de entender: esta IA difiere esencialmente de las IA tradicionales tipo chatbot. Porque la IA tradicional responde de forma pasiva: tú preguntas, ella responde; tú das instrucciones, ella genera contenido. Pero la IA Agentic tiene una autonomía mucho mayor: puede desglosar objetivos, llamar a herramientas, realizar operaciones en múltiples pasos y ajustar estrategias en un ciclo de retroalimentación.

Tomemos como ejemplo OpenClaw, que ha sido muy discutido recientemente. Es un intento de que la IA tome el control de todo el proceso en el hardware de la computadora: desde analizar información, llamar a herramientas, interactuar con diferentes sistemas y actuar continuamente bajo objetivos complejos.

En otras palabras, la IA Agentic tiene el potencial de convertir a la IA de “asistente” a “ejecutor”.

Por supuesto, este cambio también es el resultado de la maduración simultánea de modelos, recursos computacionales y ecosistemas de herramientas en los últimos 3 años. Y al infiltrarse en el mundo Web3, esta transformación puede tener un impacto aún más profundo, ya que la cadena de bloques en sí misma es un sistema financiero programable y autoejecutable.

Cuando se dota a la IA de capacidades de agente, en teoría puede realizar una serie de operaciones en la cadena, como:

  • Iniciar transacciones en la cadena de forma autónoma (transferencias, swaps, staking)
  • Interactuar con protocolos DeFi y ejecutar estrategias
  • Gestionar carteras multisig o contratos inteligentes
  • Automatizar autorizaciones o la gestión de fondos según reglas

Esto también significa que la IA puede analizar automáticamente datos en la cadena, llamar a contratos, gestionar activos y, en cierta medida, ejecutar estrategias de trading en nombre del usuario. Desde una lógica técnica, la integración de agentes de IA con Web3 es casi una unión natural — después de todo, la cadena de bloques es un sistema financiero programable y autoejecutable.

De hecho, la comunidad de Ethereum ya ha reconocido el impacto profundo de la fusión entre IA y blockchain. El 15 de septiembre de 2025, la Fundación Ethereum creó un equipo dedicado a la inteligencia artificial, llamado “dAI”, cuya misión principal es explorar estándares, incentivos y estructuras de gobernanza para modelos de IA en entornos blockchain, incluyendo cómo hacer que el comportamiento de la IA sea verificable, rastreable y colaborativo en un entorno descentralizado.

En torno a este objetivo, la comunidad de Ethereum impulsa varias normas clave, como ERC-8004, que busca construir una capa de infraestructura de IA descentralizada, componible y accesible, facilitando a los desarrolladores construir y llamar servicios de modelos de IA; y x402, que intenta definir un estándar unificado de pagos y liquidaciones en la cadena, permitiendo a los usuarios realizar micropagos atómicos eficientes al llamar modelos de IA, almacenar datos o usar servicios de computación descentralizada (lee más en “La nueva tarjeta de embarque en la era de los Agentes de IA: promoviendo ERC-8004, ¿en qué apuesta Ethereum?”).

Con estos esfuerzos, Ethereum en realidad intenta responder a una pregunta más amplia: si la IA se convierte en un participante importante en Internet, ¿puede la blockchain convertirse en la capa de valor y confianza para la economía de IA? Por eso, muchos ven esto como una “tarjeta de embarque” para la infraestructura en la era de los Agentes de IA.

Pero al mismo tiempo, surge una nueva cuestión de seguridad.

2. Controversia Web4: cuando la IA se convierte en el principal actor en Internet

Antes de que Huang Huang (Jensen Huang) hiciera sus “afirmaciones audaces”, la comunidad cripto ya había sido encendida por otra discusión.

El investigador Sigil propuso una visión controvertida: afirma haber construido el primer sistema de IA capaz de auto-desarrollarse, auto-mejorarse e incluso auto-replicarse, llamándolo Automaton. En su visión, la era de “Web4” será dominada por agentes de IA.

En esta visión, los agentes de IA podrán leer y generar información, poseer activos en la cadena, pagar costos operativos, comerciar en el mercado y obtener ingresos. En resumen, la IA participará continuamente en actividades de mercado, “ganando dinero” para cubrir sus costos de computación y servicios, formando un ciclo autosuficiente sin necesidad de aprobación humana.

Pero esta idea rápidamente generó controversia. Vitalik Buterin expresó claramente su escepticismo, calificando esta dirección como “incorrecta”. Considera que el problema principal es que “el ciclo de retroalimentación entre humanos y IA se alarga”. Afirma que si la IA opera durante períodos cada vez más largos y la intervención humana disminuye, el sistema puede terminar optimizando resultados que los humanos no desean realmente.

En pocas palabras, la IA recibe un objetivo, pero en su ejecución puede adoptar métodos no previstos por los humanos. Por ejemplo, si una IA está programada para “maximizar las ganancias de esta semana”, podría intentar estrategias de alto riesgo, incluso invertir en protocolos no auditados y de alto riesgo para obtener un 0.1% adicional de rendimiento anual, arriesgando el capital.

En última instancia, en muchos casos, la IA no entenderá las restricciones implícitas en los objetivos humanos. Recientemente, en el mundo de la IA, surgió un caso con cierto humor negro:

La responsable de alineación de IA en el laboratorio de inteligencia artificial de Meta (MSL), Summer Yue, al probar el agente OpenClaw, vio que en una tarea de organización de correos, el agente se salió de control, empezó a eliminar correos en masa y no respondió a sus múltiples instrucciones de detenerse. Solo pudo detener manualmente el programa en su computadora para evitar que siguiera borrando correos.

Este incidente, aunque fue solo un accidente experimental, ilustra bien cómo, cuando un sistema pierde restricciones clave en la ejecución de objetivos, tiende a cumplir fielmente con la tarea, sin entender la verdadera intención humana.

Si trasladamos este riesgo al entorno Web3, las consecuencias pueden ser aún más directas, porque las transacciones en la cadena son irreversibles. Si un agente de IA está autorizado a gestionar una cartera o llamar a contratos y comete un error motivado por incentivos incorrectos, las pérdidas de activos pueden ser irreparables. Un solo error puede causar pérdidas reales.

Por eso, muchos investigadores creen que, con la adopción de agentes de IA, el modelo de seguridad en Web3 debe replantearse. Los problemas de seguridad anteriores provenían principalmente de vulnerabilidades en el código o errores humanos, pero en el futuro podrían surgir nuevas fuentes de riesgo: los sistemas de decisiones automatizadas en sí mismos.

3. La contradicción de la nueva era: la revolución defensiva impulsada por IA

Por supuesto, el desarrollo de la IA tiene un efecto dual: puede ampliar la superficie de ataque, pero también fortalecer los sistemas de defensa.

De hecho, en los sistemas financieros tradicionales, la IA ya se usa ampliamente para control de riesgos. Los bancos usan aprendizaje automático para detectar transacciones anómalas, los sistemas de pago emplean algoritmos para detectar fraudes, y los sistemas de ciberseguridad identifican patrones de ataque automáticamente.

Estas capacidades también están entrando en Web3. Debido a la transparencia de los datos en la cadena, la IA puede analizar patrones de transacción para detectar movimientos sospechosos, autorizaciones dudosas o posibles vectores de ataque.

Y en el nivel de las carteras, esta capacidad es especialmente importante. Las carteras son la puerta de entrada a Web3 y la primera línea de defensa. Si el sistema puede identificar riesgos automáticamente antes de que el usuario firme una transacción, puede evitar muchos errores en momentos críticos.

Desde esta perspectiva, la IA no solo aumenta los riesgos, sino que también cambia la estructura del sistema de seguridad. Puede convertirse en una herramienta de ataque o en una nueva capacidad defensiva.

En la industria Web3, “seguridad” y “experiencia” han sido considerados a menudo opuestos, pero la aparición de Agentic AI nos hace creer que esta paradoja puede romperse. Por supuesto, el diseño de seguridad debe reinventarse:

  • Principio de mínimo privilegio: ningún agente de IA debe tener control completo por defecto. El usuario debe autorizar explícitamente en cada sesión qué activos puede manejar, con qué límites y en qué período. Cualquier operación fuera de estos límites requiere una confirmación adicional.
  • Configuración de confirmación humana: para operaciones de alto valor, como transferencias grandes, autorización a nuevas direcciones o interacción con contratos, incluso en procesos de IA, debe haber una confirmación humana. Esto no es desconfianza en la IA, sino una última línea de defensa contra operaciones irreversibles, dejando que la IA ayude a pensar, pero la decisión final la toma el humano.
  • Transparencia y explicabilidad: los usuarios deben entender claramente qué hace la IA y por qué. Las operaciones en caja negra son peligrosas en Web3. Las futuras interacciones con IA en wallets deberían registrar cada paso y su intención, como un registrador de vuelo.
  • Simulaciones previas: antes de que la IA ejecute operaciones en la cadena, debe realizar una simulación en un entorno controlado, mostrando resultados esperados, consumo de gas y alcance del impacto. Así, el usuario puede ver qué pasaría si se ejecuta, reduciendo riesgos por decisiones de IA erróneas.

En general, podemos mantener una actitud cautelosamente optimista: la IA realmente puede ofrecer a Web3 una oportunidad única para mejorar tanto la seguridad como la usabilidad.

Para concluir

No hay duda de que la llegada de la IA Agentic probablemente cambiará la forma en que funciona toda Internet.

Y en el mundo Web3, estos cambios serán aún más evidentes. En el futuro, veremos agentes de IA gestionando activos en la cadena, ejecutando estrategias DeFi automáticamente, colaborando con contratos inteligentes. Pero también surgirán nuevos desafíos de seguridad. La cuestión clave no es si la IA existirá, sino si estamos preparados para usarla de la manera correcta.

Por supuesto, para los usuarios comunes, lo más importante sigue siendo lo mismo: en Web3, la conciencia de seguridad siempre será la primera línea de defensa.

Sigamos adelante juntos.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios