Boston, MA – 6 de mayo de 2026 — Tras una destacada participación en la conferencia RSAC 2026, la Coalición para el AI Seguro (CoSAI), una iniciativa global de múltiples partes interesadas dedicada a promover la seguridad de los sistemas de inteligencia artificial, ha ampliado su orientación para la industria con la publicación de dos nuevos estudios. Estos esfuerzos reflejan el objetivo más amplio de CoSAI de avanzar en enfoques prácticos y reales para asegurar los sistemas de inteligencia artificial mediante directrices técnicas y compromiso con la industria.
Las publicaciones, «Gestión de Identidad y Acceso Agéncico» y «El Futuro de la Seguridad Agéncica: De Chatbots a Enjambres Autónomos», abordan desafíos cruciales en la era actual: adaptar la gestión de identidad y acceso a entornos cada vez más autónomos y controlados por máquinas, y mantenerse al ritmo de los agentes de inteligencia artificial que actúan, deciden y generan otros agentes a velocidad de máquina. Los documentos enfrentan una cuestión clave discutida en RSAC 2026: a medida que los agentes autónomos se convierten en una capa operativa de la empresa, ¿cómo pueden las organizaciones ampliar los principios de seguridad diseñados para humanos a sistemas cada vez más gestionados por máquinas?
La conferencia RSAC 2026 marcó un punto de inflexión para la seguridad de la inteligencia artificial agéncica, con CoSAI desempeñando un rol visible en la conversación. Dos sesiones con aforo completo reunieron a profesionales, arquitectos y directores de seguridad de la información que enfrentan una realidad compartida: el perímetro empresarial ha pasado del borde de la red a las acciones de los agentes de inteligencia artificial. La seguridad tradicional ya no es suficiente cuando los agentes autónomos están facultados para actuar, gastar y compartir datos en nombre de las empresas.
En la sesión «OASIS CoSAI: Abordando lo que viene en la Seguridad de la AI Empresarial», los copresidentes del Comité Técnico de Dirección de CoSAI, Akila Srinivasan de Anthropic y J.R. Rao, miembro distinguido y director de tecnología de Investigación de Seguridad en IBM, delinearon una hoja de ruta comprensiva para asegurar el ciclo de vida de la inteligencia artificial empresarial. La sesión puso de relieve cómo las amenazas como asistentes de codificación con puertas traseras y artefactos maliciosos están erosionando las fronteras de seguridad tradicionales, requiriendo una revaluación fundamental de la identidad, los privilegios y el control de datos.
CoSAI también presentó una estrategia de defensa en capas y neutral de proveedores que abarca la seguridad de la cadena de suministro, el diseño seguro de agentes y estándares emergentes como la Firma de Modelos Abiertos y puertas de enlace seguras para agentes, equipando a las organizaciones para pasar de una defensa reactiva a una resiliencia proactiva.
«Más de cuarenta organizaciones, incluidos competidores directos, están colaborando dentro de CoSAI porque entendemos que el panorama de amenazas no respeta límites empresariales. Tampoco deberían nuestras defensas», afirmó J.R. Rao.
La investigación más reciente de CoSAI traduce estas ideas en marcos de trabajo accionables, comenzando con un estudio profundo sobre gestión de identidad y acceso agéncico, abordando así un desafío fundamental: sin una identidad confiable y legible por máquinas para cada agente, ningún otro control de seguridad puede imponerse de manera fiable.
La publicación «El Futuro de la Seguridad Agéncica: De Chatbots a Enjambres Autónomos» examina cómo los agentes AI capaces de codificar y coordinar a través de sistemas sensibles desplazan la superficie de ataque a la capa semántica, donde controles tradicionales como listas de acceso estáticas ya no son efectivos.
Para acceder a esta investigación colaborativa y más, CoSAI invita a la industria a explorar y descargar sus publicaciones en su página web, fortaleciendo así su misión de proporcionar una postura de seguridad proactiva y fomentar el desarrollo y despliegue responsable de tecnologías de inteligencia artificial a nivel mundial.
vÃa: Oasis Open News







