El conocido software de línea de comandos, curl, se enfrenta a un desafío inesperado en su programa de recompensas por errores, que lidera junto con HackerOne. Este programa, que ha sido crucial para identificar y solucionar fallos críticos de seguridad, está siendo inundado por informes de errores generados por inteligencia artificial. Estos informes, denominados «AI slop», no aportan valor real al desarrollo y mantienen ocupados a los desarrolladores con contenido irrelevante.
Daniel Stenberg, el creador de curl, ha hecho un anuncio en LinkedIn en el que informa que cualquier informe identificado como «AI slop» resultará en la expulsión inmediata del reportero. Según Stenberg, la decisión se debió a que este tipo de informes equivale a un ataque de denegación de servicio distribuido (DDoS), que sobrecarga al equipo de desarrollo con trabajo innecesario.
Un ejemplo famoso fue un informe de un supuesto riesgo de desbordamiento de búfer, que parecía genuino al inicio, pero que resultó ser texto genérico más propio de un chatbot que de un reporte técnico. En sus interacciones, los desarrolladores de curl notaron que las respuestas eran extensas, educadas y carentes de información relevante, lo cual es característico del contenido generado por inteligencia artificial.
Este fenómeno no es exclusivo de curl. Otras comunidades de código abierto, como Gentoo Linux, ya han implementado medidas similares para mantener su enfoque en contribuciones de calidad y reales. La comunidad del software libre subraya la importancia de que los colaboradores verifiquen y validen la información antes de presentarla, asegurando que el trabajo se realice con integridad y esfuerzo genuino.
El caso de curl es un recordatorio sobre los desafíos que la inteligencia artificial puede presentar en el ámbito del desarrollo de software abierto. La comunidad subraya que la intervención humana es fundamental para mantener la calidad y la seguridad de las contribuciones. Sin duda, esta situación ha generado un debate sobre el papel de la inteligencia artificial en el mundo del código abierto y sus implicancias futuras.
vÃa: It’s Foss News