Uso de IA no desenvolvimento do Lutris gera debate na comunidade

A polêmica do uso de IA chegou ao Lutris, com parte da comunidade insatisfeita pela adoção do Claude como ferramenta de desenvolvimento. Mas os desenvolvedores sinalizam pretender seguir com a prática.

3 curtidas

melhor a gente se acostumar com a novidade.

2 curtidas

Eu não vejo problema, a questão é ter bom senso, ainda esse ano planejo testar a viabilidade na inserção de IA agêntica em tarefas simples em algum produto que mantenho, como por exemplo tickets simples que um junior poderia resolver.

Frequentemente tem muita coisa para resolver e existem pequenas tarefas que um junior poderia resolver, onde eu poderia por o modelo. O importante é revisar, ter critério e iterar. O código de um junior dificilmente passaria de cara também.

2 curtidas

eu não programo, nem quero aprender. nada contra. só não é minha praia.o que falarei aqui é só pitaquice de não iniciado. não vale como regra. mas conjecturemos: código bom e ruim programador também faz. então, nada que a IA faça de diferente. nada impede que se desenvolva uma IA para programadores ou o cidadão possa promptear decentemente, dizendo o que, como, onde e quando quer um código de qualidade. também nada impede que se desenvolva um “checador de código” pra se analisar o que possa ser melhorado. e duvido que o programador carnal revise todo o seu código. creio ser humanamente impossível. resumo: tudo normal na vida. a IA vai programar, vai criar apps que usaremos e o mundo não vai acabar por causa disso.

essa tal “comunidade”, ser amorfo pouco identificável que citamos no dia-a-dia, faz reme-reme por temas que levam o pinguim pro futuro e não podemos impedir: “aaaaain… o systemd vai possuir todo o linux”… “aaaaain… o wayland é o inimigo da liberdade de usar o X”…

dá um tempo na minha cabeça. temos de evoluir! temos de crescer. e não há almoço grátis. tudo tem seu preço. a questão central é o limite que cada um quer ir. se o problema é a “segurança”, há mecanismos para melhorá-la, iniciando com um usuário que não usa senha 123456.

de resto, é aproveitar essa onde de novidades que revitalizam o pinguim para os próximos 10 anos!

1 curtida

Feito com responsabilidade acho perfeitamente viável o uso de IA para programação e não vejo nenhum problema nisso.

4 curtidas

O uso de IA como assistente é ótimo. Ela ajuda a apontar erros de código e lógica e ainda sugere melhorias. Mas um profissional responsável não simplesmente aceita a resposta pronta: analisa, questiona o que parece errado e estuda aquilo que não conhece antes de sair aplicando no código.

Nesse sentido, vejo a IA quase como uma revisão de pares, alguém olhando seu código com outra perspectiva.

O problema é que muita gente criou uma expectativa meio irreal. Acham que a IA vai sair criando programas completos sozinha, ou tratam a ferramenta como psicóloga, tem gente até “namorando” IA por aí. :sweat_smile:

E tem umas propagandas que aparecem pra mim que eu racho o bico… “ela faz tudo por você”, “está sempre disponível”, “te compreende”… dae tem um avatar passando a mão no cabelo, fazendo aquele “olhar 43” hauhau :grimacing: :heart_eyes:

4 curtidas

Acabei de me deparar com esse vídeo e acho que vem bem a calhar aqui no nosso assunto.

3 curtidas

Nós desenvolvedores (ao menos os que conheço, que são responsáveis por manter projetos sérios, ou partes de um, como eu), costumamos revisar todo o código que entra e sai, ao menos em algum nível. Isso meio que é o mínimo, seria um completo caos sem isso.

O problema da comunidade, é que as veze ela pega explicações simples, que não são exatamente falsas, mas trata como se explicassem tudo, e no final isso apaga fatores estruturais responsáveis por código ruim/defeituoso.

É meio que parecido com questões como “poxa, eu coloquei 10 novos médicos nesse posto de saúde, porque a qualidade do atendimento continua caindo?”

Aumentar médicos em um posto de saúde não vai inevitavelmente aumentar a qualidade do atendimento, só porque mais médicos em certas situações costumam ter um impacto direto na qualidade do atendimento.

3 curtidas

Dês de que tenha um humano para revizar o código tudo bem o problema é mandar todo mundo embora e esperar que tudo vai dar certo.

Até o Linus ta usando IA no projeto pessoal dele.

3 curtidas

Apesar de ser contra o modo como a IA tá sendo empregada atualmente, sou a favor da tecnologia. A tecnologia em si é neutra e pode ajudar em muitas coisas. Com essas tarefas de scripting e automação usando Bash e Python as IAs tem me ajudado bastante, é só revisar e ser cuidadoso com o prompt que vai embora. Não sou programador então não posso opinar, mas sou radicalmente contra uso de IA em trabalhos artísticos, por exemplo. Há casos e casos.

1 curtida

falo de um projeto de pentilhões de linhas. deve ser impossível a menos que se use um “analisador de código automático”, se é que isso existe.

Projeto com pentilhões de linhas são milhares de projetos difusos por baixo dos panos.

Uma grande parte do desenvolvimento de grandes projetos é sobre isso, formas como tarefas são divididas, formalidades de envio (Pull/Merge Requests), estruturação de código proativamente de forma modular/isolada (plugin vs core vs bibliotecas…), com responsabilidade de revisão dividida.

O kernel é um bom exemplo de como mudanças ocorrem ao longo do tempo:

  • Bem curto: Kbuild fixes for v6.16-rc2 — a página do arquivo tem 56 linhas no total; é um ótimo exemplo de pull request enxuto.
  • Médio: Driver core changes for 6.19-rc1 — a página do arquivo tem 327 linhas; já mostra um resumo manual maior antes do shortlog.
  • Grande: soc: devicetree updates for 6.15 — a página do arquivo tem 1592 linhas; aqui já dá para sentir como pulls de subsistema crescem bastante.
  • Gigante: drm for 6.16-rc1 — a página do arquivo tem 4707 linhas; é um exemplo de pull principal bem pesado.
3 curtidas

benzadeus. tô fora. kkkkkkkkk

Aos que porventura estejam interessados, neste link, o GitHub detalha um pouco o funcionamento dos agentes de codificação do GitHub copilot para empresas:

Eles descrevem como o código gerado passa por outras ferramentas como CodeQL, para análise semântica, para reduzir as chances de código inseguro, como a ferramenta é confinada, limitando a IA a um branch específico e interação só com membros específicos do repositório. Como ela é tratada como um contribuinte externo de código e tal.

É bem interessante, e é uma abordagem que estamos planejando testar aqui na empresa.

2 curtidas

Tem uma turma da idade da pedra do Linux que vai sofrer com estas mudanças, por eles não teria que ter nada novo a uns 30 anos.

Toda inovação implementada no Linux é o mesmo chororo…

1 curtida

Uma coisa é a expectativa outra coisa é a realidade…

A conclusão é a que você imagina: volumes enormes de código gerado por IA sendo despejados num repositório a uma velocidade que impossibilita review humano sério. E isso me incomodou o suficiente pra ir investigar mais a fundo.

As batalhas que enfrentaremos no futuro próximo não serão apenas contra atacantes externos. Serão também contra a complexidade interna. Como auditar um código que não foi escrito por uma mente humana, e sim por um modelo de linguagem? Como garantir a conformidade quando a origem do código é uma “caixa preta”?

Fazendo o contraponto, quando feito de forma responsável é um case de sucesso

A maior parte do código do vinext foi gerada com AI, sob direção humana de Steve Faulkner (engineering manager da Cloudflare).

https://ronieneubauer.com/cloudflare-reimplementou-o-nextjs-em-uma-semana-com-ai-conheca-o-vinext

1 curtida