OpenAI anunció la adquisición de la plataforma de seguridad AI Promptfoo, integrando su tecnología en la plataforma Frontier, para ofrecer a las empresas pruebas automatizadas de red team y protección contra vulnerabilidades en la implementación de agentes de IA.
(Resumen previo: ¿Sam Altman vil? Justo cuando fue bloqueado por el Pentágono, Anthropic, que acaba de ser sancionado, se volvió a posicionar llamando a OpenAI para que obtenga contratos con el Departamento de Defensa de EE. UU.)
(Información adicional: The Wall Street Journal reveló que Trump utilizó Claude AI para localizar y eliminar a Hassan Nasrallah, y que OpenAI tomó el control total de los sistemas del Pentágono.)
El pasado día 9, OpenAI anunció la adquisición de Promptfoo, una startup fundada en 2024 especializada en pruebas de vulnerabilidad y ejercicios de red team en modelos de lenguaje grande (LLM), que simulan comportamientos reales de hackers para defensas de seguridad.
A medida que la IA evoluciona de ser un chatbot a convertirse en un “compañero de trabajo” con permisos de ejecución, prevenir que estos agentes sean vulnerados o transmitan datos sensibles por error se ha convertido en un desafío central para la adopción masiva en las empresas.
Según el anuncio oficial de OpenAI, la tecnología de Promptfoo se integrará profundamente en Frontier, la plataforma empresarial lanzada en febrero de 2026, brindando soporte a las empresas que creen agentes en Frontier:
Según el anuncio, las herramientas de código abierto de Promptfoo ya son utilizadas por más del 25% de las empresas en la lista Fortune 500, con 350,000 desarrolladores registrados. Este equipo de solo 23 personas recibió una financiación de 23 millones de dólares y, tras su última ronda en julio de 2025, su valoración alcanzó los 86 millones de dólares.
Los fundadores de Promptfoo, Ian Webster y Michael D’Angelo, liderarán la integración de todo el equipo en OpenAI.
En resumen, los agentes de IA ya están dejando de ser “estudiantes universitarios que buscan información” para convertirse en “asistentes que llevan tu sello para hacer trámites”.
Este cambio eleva el riesgo de filtraciones de información a un nivel de pérdida de control en las acciones. Cuando otorgamos autonomía a la IA para realizar tareas, lo más peligroso ya no es que cometa errores al hablar, sino que pueda interpretar mal las intenciones, ser engañada por hackers mediante instrucciones ocultas, y realizar acciones irreversibles como transferencias incorrectas o eliminación de archivos críticos.
En entornos donde múltiples IA colaboran entre sí, un error lógico de un agente puede desencadenar reacciones en cadena catastróficas.
Por ello, en la era de los agentes, la seguridad no consiste en bloquear la información, sino en “monitorear el comportamiento”. Debemos gestionar a la IA como a un empleado, estableciendo límites claros de permisos y mecanismos de revisión. Solo así, haciendo que las acciones de la IA sean transparentes y sus permisos precisos, esta poderosa automatización no se convertirá en la puerta trasera más difícil de defender para las empresas.