Desenvolvedores de código aberto estão enfrentando um aumento nos relatórios de vulnerabilidades gerados por IA, que têm sido considerados de baixa qualidade e muitas vezes enganosos.
Seth Larson, da Python Software Foundation, alertou sobre a proliferação de falsos relatórios de segurança, que consomem tempo valioso dos mantenedores, em sua maioria voluntários.
Ele advertiu que esses relatórios devem ser tratados como maliciosos, dada a dificuldade em distinguir entre relatos legítimos e os automatizados.
Larson propôs que a comunidade de código aberto implemente mudanças fundamentais para enfrentar essa tendência, enfatizando a necessidade de mais recursos e envolvimento humano na validação de relatórios de bugs.
Ele também pediu que os submissores verifiquem seus relatos antes de enviá-los, evitando o uso de sistemas de IA que não compreendem o código.
Fonte: links no texto e na imagem