En un esfuerzo conjunto de la industria, se ha lanzado un nuevo marco que aborda la gestión de identidades, la integridad de la cadena de suministro y la seguridad de protocolos para el despliegue de agentes de inteligencia artificial. En Boston, el consorcio internacional OASIS Open, conocido por sus estándares y proyectos de código abierto, anunció la publicación del documento técnico titulado «Seguridad del Protocolo de Contexto del Modelo (MCP)» por parte de la Coalición para la AI Segura (CoSAI).
Este marco provee a los profesionales y desarrolladores en seguridad con herramientas para identificar, evaluar y mitigar riesgos relacionados con agentes de AI basados en MCP. Esto responde a la urgente necesidad de implementar prácticas de seguridad estandarizadas, dado el creciente uso de la inteligencia artificial en la conexión con herramientas y servicios externos.
El MCP, desarrollado con la colaboración de Anthropic y una comunidad abierta, está ganando terreno como un importante protocolo para la conexión de agentes de AI con herramientas externas y servicios. No obstante, su implementación enfrenta amenazas activas y en constante evolución. El marco de seguridad propuesto abarca una amplia gama de amenazas y estrategias de mitigación, organizadas en categorías como control de acceso, validación de entradas, protección de datos, seguridad de red e integridad de la cadena de suministro.
Ian Molloy, de IBM, y Sarah Novotny, co-líderes del Workstream 4 de CoSAI, señalaron que a medida que los AI evolucionan de modelos de chat a agentes con capacidades para interactuar con el mundo real, las implicaciones de seguridad se vuelven más críticas. El documento refleja el conocimiento de los miembros de CoSAI en la protección de sistemas agentic.
La elaboración del documento fue un esfuerzo colaborativo, con aportes de patrocinadores y organizaciones asociadas a CoSAI, incluyendo a empresas destacadas como EY, Google, IBM, Meta, Microsoft, NVIDIA, PayPal, y otras. CoSAI sigue invitando a organizaciones y expertos técnicos a unirse a su comunidad de código abierto para continuar sus investigaciones en AI segura.
La Coalición para la AI Segura es una iniciativa global que promueve la seguridad en sistemas de IA. En conjunto con expertos de diversos sectores, CoSAI busca cerrar brechas críticas en la defensa de sistemas de IA mediante modelos de colaboración abierta. Funciona bajo el paraguas de OASIS Open, conocido por avanzar en el desarrollo justo y colaborativo de estándares globales.
vÃa: Oasis Open News