Boston, MA – 18 de noviembre de 2025 – OASIS Open, el consorcio internacional de estándares y código abierto, ha anunciado la publicación de dos importantes documentos que avanzan en las prácticas de seguridad en inteligencia artificial, desarrollados por la Coalición para la Seguridad de la IA (CoSAI), un proyecto de OASIS Open. Estos recursos ofrecen marcos prácticos para ayudar a las organizaciones a fortalecer la seguridad y la confiabilidad de sus sistemas de inteligencia artificial.
La publicación del grupo de trabajo sobre Seguridad en la Cadena de Suministro de Software para Sistemas de IA se titula “Firma de Artefactos de ML: Avanzando hacia registros de metadatos de ML a prueba de manipulaciones,” mientras que el grupo de trabajo destinado a preparar a los defensores frente a un paisaje cambiante de ciberseguridad ha lanzado el “Marco de Respuesta a Incidentes de IA V1.0.” Juntos, estos marcos abordan aspectos clave del ciclo de vida completo de la garantía de IA, desde la prevención de manipulación antes del despliegue hasta la respuesta efectiva en caso de ataques.
La publicación del primer grupo de trabajo se centra en uno de los desafíos más urgentes en el despliegue de IA: verificar la autenticidad e integridad de los modelos de IA antes de integrarlos en sistemas críticos. Conforme la IA se va integrando en procesos empresariales cruciales, la cuestión ya no es si implementar la firma de modelos, sino cuán rápido las organizaciones pueden adoptarla. El marco proporciona la profundidad técnica y las directrices de implementación necesarias para acelerar su adopción mientras asegura la interoperabilidad y mantiene la seguridad y el cumplimiento que exigen las empresas.
Según los líderes del primer grupo de trabajo, Andre Elizondo de Wiz, Matt Maloney de Cohere y Jay White de Microsoft, «la firma de modelos brinda un valor empresarial tangible: reduce el riesgo de seguridad, simplifica el cumplimiento e incrementa la confianza de los interesados.» El documento introduce un modelo de madurez por etapas para adoptar la firma de modelos, comenzando por establecer la integridad básica del artefacto mediante firmas digitales y avanzando hacia cadenas de firma y linajes, creando así claros registros de procedencia y trazabilidad a lo largo de toda la cadena de suministro de IA.
Por otro lado, el marco del segundo grupo de trabajo equipa a los practicantes de seguridad con orientación específica para detectar, contener y remediar amenazas emergentes que afectan a los sistemas de IA, como el envenenamiento de datos y el robo de modelos.
Vinay Bansal de Cisco y Josiah Hagen de Trend Micro, líderes del segundo grupo de trabajo de CoSAI, señalaron: «La adopción de IA está transformando la seguridad empresarial, y operacionalizar la respuesta a incidentes con tecnología en rápida evolución presenta nuevos retos.” Este marco ofrece ejemplos de incidentes en casos de uso comunes de IA y proporciona guías prácticas para afrontar los riesgos nuevos en los sistemas de IA, ayudando a las organizaciones a pasar de la teoría a la práctica.
El impacto y la colaboración de la industria son cruciales para estas publicaciones, desarrolladas con el aporte colectivo de más de 40 socios del sector, incluyendo empresas como EY, Google, IBM, Microsoft, NVIDIA, y otras. Estas iniciativas refuerzan los esfuerzos más amplios de CoSAI para promover principios de diseño seguro y cerrar brechas críticas en la defensa de sistemas de IA.
CoSAI invita a colaboradores técnicos, investigadores y organizaciones a participar en su comunidad de código abierto y apoyar su trabajo continuo. Los marcos están disponibles públicamente en las páginas de GitHub de CoSAI.
vÃa: Oasis Open News
