A presença de patches gerados por IA, no kernel Linux, traz grandes desafios de segurança. Embora pareçam normais, a lógica pode ser difícil de entender, uma vez que a IA não segue padrões claros, dificultando encontrar erros sutis ou regressões.
A principal preocupação é que as mudanças feitas pela IA podem desviar dos padrões estabelecidos no código, o que exige uma reconstrução do raciocínio para entender se o desvio é benigno ou se representa um risco real.
Isso torna o processo de revisão mais lento e aumenta o risco de falhas, pois o código pode não seguir as normas da subsistema do kernel. O problema maior é a falta de rastreabilidade, algo essencial para a segurança do código aberto. Sem saber quem fez uma alteração e por que, os revisores ficam sem contexto, o que dificulta a identificação de falhas.
Os mantenedores estão pedindo regras claras sobre o uso de IA no desenvolvimento do kernel, incluindo como os contribuidores devem divulgar sua utilização e quais padrões devem ser seguidos.
A ideia é garantir que o fluxo de trabalho não seja afetado por incertezas e que a revisão do código continue eficaz. Eles propõem, por exemplo, que o uso de IA seja claramente indicado na mensagem de commit, permitindo que os revisores saibam que podem precisar de mais atenção ao analisar o código.
A IA não está quebrando o kernel, mas a velocidade com que ela gera patches está mais rápida do que o processo de governança, o que cria uma pressão adicional sobre os desenvolvedores e revisores.
A principal preocupação é a difusão de erros sutis que podem passar despercebidos até afetar sistemas em produção. Por isso, a comunidade de desenvolvedores do Linux está buscando um equilíbrio, estabelecendo diretrizes que permitam uma integração mais controlada da IA no processo de desenvolvimento, garantindo a segurança e a estabilidade do código a longo prazo.
