A polêmica do uso de IA chegou ao Lutris, com parte da comunidade insatisfeita pela adoção do Claude como ferramenta de desenvolvimento. Mas os desenvolvedores sinalizam pretender seguir com a prática.
melhor a gente se acostumar com a novidade.
Eu não vejo problema, a questão é ter bom senso, ainda esse ano planejo testar a viabilidade na inserção de IA agêntica em tarefas simples em algum produto que mantenho, como por exemplo tickets simples que um junior poderia resolver.
Frequentemente tem muita coisa para resolver e existem pequenas tarefas que um junior poderia resolver, onde eu poderia por o modelo. O importante é revisar, ter critério e iterar. O código de um junior dificilmente passaria de cara também.
eu não programo, nem quero aprender. nada contra. só não é minha praia.o que falarei aqui é só pitaquice de não iniciado. não vale como regra. mas conjecturemos: código bom e ruim programador também faz. então, nada que a IA faça de diferente. nada impede que se desenvolva uma IA para programadores ou o cidadão possa promptear decentemente, dizendo o que, como, onde e quando quer um código de qualidade. também nada impede que se desenvolva um “checador de código” pra se analisar o que possa ser melhorado. e duvido que o programador carnal revise todo o seu código. creio ser humanamente impossível. resumo: tudo normal na vida. a IA vai programar, vai criar apps que usaremos e o mundo não vai acabar por causa disso.
essa tal “comunidade”, ser amorfo pouco identificável que citamos no dia-a-dia, faz reme-reme por temas que levam o pinguim pro futuro e não podemos impedir: “aaaaain… o systemd vai possuir todo o linux”… “aaaaain… o wayland é o inimigo da liberdade de usar o X”…
dá um tempo na minha cabeça. temos de evoluir! temos de crescer. e não há almoço grátis. tudo tem seu preço. a questão central é o limite que cada um quer ir. se o problema é a “segurança”, há mecanismos para melhorá-la, iniciando com um usuário que não usa senha 123456.
de resto, é aproveitar essa onde de novidades que revitalizam o pinguim para os próximos 10 anos!
Feito com responsabilidade acho perfeitamente viável o uso de IA para programação e não vejo nenhum problema nisso.
O uso de IA como assistente é ótimo. Ela ajuda a apontar erros de código e lógica e ainda sugere melhorias. Mas um profissional responsável não simplesmente aceita a resposta pronta: analisa, questiona o que parece errado e estuda aquilo que não conhece antes de sair aplicando no código.
Nesse sentido, vejo a IA quase como uma revisão de pares, alguém olhando seu código com outra perspectiva.
O problema é que muita gente criou uma expectativa meio irreal. Acham que a IA vai sair criando programas completos sozinha, ou tratam a ferramenta como psicóloga, tem gente até “namorando” IA por aí. ![]()
E tem umas propagandas que aparecem pra mim que eu racho o bico… “ela faz tudo por você”, “está sempre disponível”, “te compreende”… dae tem um avatar passando a mão no cabelo, fazendo aquele “olhar 43” hauhau
![]()
Acabei de me deparar com esse vídeo e acho que vem bem a calhar aqui no nosso assunto.
Nós desenvolvedores (ao menos os que conheço, que são responsáveis por manter projetos sérios, ou partes de um, como eu), costumamos revisar todo o código que entra e sai, ao menos em algum nível. Isso meio que é o mínimo, seria um completo caos sem isso.
O problema da comunidade, é que as veze ela pega explicações simples, que não são exatamente falsas, mas trata como se explicassem tudo, e no final isso apaga fatores estruturais responsáveis por código ruim/defeituoso.
É meio que parecido com questões como “poxa, eu coloquei 10 novos médicos nesse posto de saúde, porque a qualidade do atendimento continua caindo?”
Aumentar médicos em um posto de saúde não vai inevitavelmente aumentar a qualidade do atendimento, só porque mais médicos em certas situações costumam ter um impacto direto na qualidade do atendimento.
Dês de que tenha um humano para revizar o código tudo bem o problema é mandar todo mundo embora e esperar que tudo vai dar certo.
Até o Linus ta usando IA no projeto pessoal dele.
Apesar de ser contra o modo como a IA tá sendo empregada atualmente, sou a favor da tecnologia. A tecnologia em si é neutra e pode ajudar em muitas coisas. Com essas tarefas de scripting e automação usando Bash e Python as IAs tem me ajudado bastante, é só revisar e ser cuidadoso com o prompt que vai embora. Não sou programador então não posso opinar, mas sou radicalmente contra uso de IA em trabalhos artísticos, por exemplo. Há casos e casos.
falo de um projeto de pentilhões de linhas. deve ser impossível a menos que se use um “analisador de código automático”, se é que isso existe.
Projeto com pentilhões de linhas são milhares de projetos difusos por baixo dos panos.
Uma grande parte do desenvolvimento de grandes projetos é sobre isso, formas como tarefas são divididas, formalidades de envio (Pull/Merge Requests), estruturação de código proativamente de forma modular/isolada (plugin vs core vs bibliotecas…), com responsabilidade de revisão dividida.
O kernel é um bom exemplo de como mudanças ocorrem ao longo do tempo:
- Bem curto:
Kbuild fixes for v6.16-rc2— a página do arquivo tem 56 linhas no total; é um ótimo exemplo de pull request enxuto. - Médio:
Driver core changes for 6.19-rc1— a página do arquivo tem 327 linhas; já mostra um resumo manual maior antes do shortlog. - Grande:
soc: devicetree updates for 6.15— a página do arquivo tem 1592 linhas; aqui já dá para sentir como pulls de subsistema crescem bastante. - Gigante:
drm for 6.16-rc1— a página do arquivo tem 4707 linhas; é um exemplo de pull principal bem pesado.
benzadeus. tô fora. kkkkkkkkk
Aos que porventura estejam interessados, neste link, o GitHub detalha um pouco o funcionamento dos agentes de codificação do GitHub copilot para empresas:
Eles descrevem como o código gerado passa por outras ferramentas como CodeQL, para análise semântica, para reduzir as chances de código inseguro, como a ferramenta é confinada, limitando a IA a um branch específico e interação só com membros específicos do repositório. Como ela é tratada como um contribuinte externo de código e tal.
É bem interessante, e é uma abordagem que estamos planejando testar aqui na empresa.
Tem uma turma da idade da pedra do Linux que vai sofrer com estas mudanças, por eles não teria que ter nada novo a uns 30 anos.
Toda inovação implementada no Linux é o mesmo chororo…
Uma coisa é a expectativa outra coisa é a realidade…
A conclusão é a que você imagina: volumes enormes de código gerado por IA sendo despejados num repositório a uma velocidade que impossibilita review humano sério. E isso me incomodou o suficiente pra ir investigar mais a fundo.
As batalhas que enfrentaremos no futuro próximo não serão apenas contra atacantes externos. Serão também contra a complexidade interna. Como auditar um código que não foi escrito por uma mente humana, e sim por um modelo de linguagem? Como garantir a conformidade quando a origem do código é uma “caixa preta”?
Fazendo o contraponto, quando feito de forma responsável é um case de sucesso
A maior parte do código do vinext foi gerada com AI, sob direção humana de Steve Faulkner (engineering manager da Cloudflare).
https://ronieneubauer.com/cloudflare-reimplementou-o-nextjs-em-uma-semana-com-ai-conheca-o-vinext