
GPT-4o de OpenAI: ¿Un riesgo para la seguridad?
OpenAI ha dado a conocer un informe de investigación, conocido como «System Card», que analiza los resultados de las pruebas de seguridad realizadas a su último modelo de inteligencia artificial, el GPT-4o. El informe revela que el modelo fue evaluado por un equipo externo de expertos en seguridad, denominados «red teamers», y se determinó que presenta un «riesgo medio». Para