Gnome proíbe extensões geradas por IA

O site de extensões do GNOME acrescentou recentemente uma nova regra, proibindo contribuições que incluam código gerado por inteligência artificial (IA). A decisão foi tomada devido ao crescente número de extensões do GNOME Shell criadas desta forma.

No entanto, o uso da IA como ferramenta de aprendizado ou para ajudar no desenvolvimento, como por exemplo, para autocompletar código, não é proibido. Porém, os desenvolvedores devem ser capazes de justificar e explicar o código que enviam.

Submissões com grandes volumes de código desnecessário, estilo inconsistente, APIs fictícias, comentários que pareçam solicitações para modelos de linguagem ou outros sinais de que o código foi gerado por IA, serão rejeitadas, embora os usuários possam gerar suas próprias extensões localmente usando este recurso.

image

5 curtidas

Não entendo essa necessidade de fazer spam com código gerado por IA, não ajuda ninguém, cria riscos de segurança e na maioria das vezes só atrapalha…

4 curtidas

Acho que a IA chegou pra ajudar, mas tem que ser usada da forma correta. Usar para fazer trabalhos massantes, destravar alguma lógica que você ficou “empacado”, auto-completar código que você está escrevendo, enquanto você se concentra em fazer toda a parte importante do projeto.

Acredito que barrar qualquer coisa que contenha IA é um pouco de mais mas também não da pra aceitar um projeto feito com, praticamente, 100% de IA.
Tomara que os responsavéis pelo Gnome “acertem a mão” na hora de fazer esse balanço.

5 curtidas

Já é basicamente assim, auto complete é permitido, o que não é permitido é o “vibe coding”

Mas mesmo se tudo fosse proibido, seria algo justo, quem cria uma extensão pública deveria dar conta de manter sozinho

2 curtidas

o pior que é dificil identificar código gerado por IA se ele não tiver comentário nenhum ou for aquelas “Gemini 3 Pro”

3 curtidas

Estão certos. É fácil criar um código usando IA, o difícil é manter o código funcional e sem bugs.
É necessário que quem mantenha o código tenha pleno conhecimento de programação. Caso contrário, as chances de dar problemas são enormes.
Se com humanos supervisionando os códigos já dá problema, imagina com IA…

2 curtidas

O que me surpreende é ainda não rever esse método de acrescentar novas ferramentas e customizações no gnome por meio de extensões. Porque já não fazem algo nativo mesmo no próprio DE como já é feito no KDE, Cinnamon, XFCE e mais recentemente no Cosmic Desktop.

Creio que seria mais interessante e fácil para iniciantes achar uma opção nas configurações de aparência algo relacionado a “applets (extensões)” como noutras.
Algo nativo na própria interface gráfica!

3 curtidas

Já tentaram proibir os estudantes de comprarem trabalhos prontos – uma “indústria” que existe há décadas, para sustento de ex-alunos desempregados – mas não deu muito resultado, até agora.

Um dos motivos mais óbvios, é que 99% dos professores ganham apenas as “horas de aula” – e nem 1 centavo por “horas fora da sala de aula”.

Para comprovar o fenômeno, às vezes um estudante incluía uma receita de bolo no meio do trabalho escolar – e o professor nem percebia.

Isso, no tempo em que ainda era humanamente possível ler os trabalhos de 40 estudantes – ou 80, ou 120 etc., no caso de um professor “ter” várias turmas.

Recentemente, descobriu-se o “Workslop” – ou “desleixo de trabalho”, ou coisa assim.

Chefias delegam aos subordinados um levantamento e resumo sobre algum assunto que exige decisão urgente – porque não têm tempo para fazer isso pessoalmente – e afinal, é para isso que se contratam subordinados.

Aí, o subordinado, que tem tempo (afinal, é pago para isso), prefere usar a IA para produzir um texto com toda “aparência de coisa séria” – e a chefia (que não tem tempo)… precisa gastar um tempo doido, para tentar descobrir… se pode confiar naquele texto do subordinado.

Levado para o ambiente de “desenvolvimento”, “código”, “Kernel” etc., a coisa se multiplica por 10 elevado à enésima potência – como se fossem necessários 300 professores para ler com atenção os trabalhos escolares de 2 ou 3 turmas – ou 300 chefias para verificar com atenção o trabalho de meia-dúzia de subordinados.

E quem vai pagar 300 desenvolvedores sêniores, para revisar com atenção as contribuições de um punhado de colaboradores júniores? – num universo sub-financiado (para dizer pouco), onde se recebem 3.000 cobranças e xingamentos para cada 1 dólar pingado?

A única solução possível é… entregar a supervisão para a IA :grimacing: !

3 curtidas

A ideia não é nova:

Desde a década de 1950 (pelo menos), a “ficção-científica” brincava de imaginar computadores cada vez maiores – até o ponto em que nenhum ser humano poderia continuar entendendo alguma coisa daquela trapizonga – e computadores complexos passariam a criar computadores cada vez mais complexos.

Asimov seria o exemplo mais óbvio – e é divertido ler suas obras por ordem cronológica, ao longo das décadas – à medida em que ele vai “atualizando” seus mega-computadores imaginários. – No começo, máquinas enormes, ocupando cavernas imensas… mas ainda “presos” à comunicação via “terminais” – teclado, fita perfurada… depois uma impressora tosca… por fim um monitor de vídeo… – e no final, hiper-computadores miniaturizados, com “teclados” sem teclas, apenas para as mãos estabelecerem contato direto com o cérebro (a única coisa à frente do que já existia).

Mas Asimov era bioquímico (e “popularizador” de ciência para leigos). – Bem melhor era Arthur C. Clarke, que entendia um pouco mais dessas coisas, e bolou o “HAL” da nave espacial de “2001 - Uma odisseia no espaço”, nos anos 60. – Mais tarde, ele desenvolveu ainda mais essas ideias, em “2010”, “2061”, “3001” (ou algo assim). – Cada vez mais fora do alcance do cérebro humano.

Na vida real, até certo momento a “lógica” era comandada por válvulas a vácuo – umas ampolas de vidro, ligadas por emaranhados de fios igual um prato de spaghetti – e isso realmente exigia muito espaço para crescer.

Conheci um “demonstrativo” desse tipo de computador na escola, em 1968 (devia ser bem mais antigo): – um chassis com 8 válvulas – e uma série de fios com plugs, para “programá-lo”. Imagine…

Aquele tipo de “tecnologia” já estava superado, claro. – Transístores existiam desde 1947 – e o Circuito Integrado, desde 1960.

Até aí, já se conseguia fazer chips com mais de 10.000 transístores – mas projetar um “circuito integrado” exigia a colaboração de “físicos, engenheiros e fábricas que entendiam a tecnologia de circuitos integrados”:

A capacidade de projetar tais circuitos estava concentrada na indústria, com as universidades lutando para acompanhar o ritmo. Logo, o número de transistores que cabiam em um chip começou a dobrar a cada ano [ 3 ] e, desde 1975, vem dobrando a cada dois anos . Circuitos muito mais complexos podiam então caber em um único chip, mas os físicos de dispositivos que fabricavam os chips não eram especialistas em projeto de circuitos eletrônicos, portanto, seus projetos eram limitados mais por sua experiência e imaginação do que por limitações da tecnologia.

Em 1978-79, quando aproximadamente 20.000 transistores podiam ser fabricados em um único chip, Carver Mead e Lynn Conway escreveram o livro-texto Introduction to VLSI Systems [ 1 ] . Publicado em 1979, tornou-se um best-seller, por ser o primeiro livro-texto sobre projeto de VLSI (Very Large Scale Integration) utilizável por não-físicos. Os autores pretendiam que o livro preenchesse uma lacuna na literatura e introduzisse estudantes de engenharia elétrica e ciência da computação à arquitetura de sistemas integrados . Este livro-texto desencadeou um avanço na educação, bem como na prática industrial. Professores de ciência da computação e engenharia elétrica em todo o mundo começaram a ensinar projeto de sistemas VLSI usando este livro-texto. Muitos deles também obtiveram uma cópia das anotações de Lynn Conway de seu famoso curso no MIT em 1978, que incluía uma coleção de exercícios. [ 4 ]

Um marco importante que se seguiu foi o conceito de Chip Multiprojeto (MPC), que permitiu a fabricação de múltiplos projetos em um único wafer, reduzindo drasticamente os custos a ponto de possibilitar a produção em pequena escala de exercícios e protótipos de estudantes. A primeira operação bem-sucedida de uma linha MPC foi demonstrada no curso de projeto VLSI de Lynn Conway, no MIT, em 1978. Poucas semanas após a conclusão de seus projetos, os alunos já tinham os protótipos fabricados em mãos, prontos para testes. O novo sistema e serviço de implementação VLSI MPC da Xerox PARC, aprimorado por Lynn Conway, foi operado com sucesso em uma dúzia de universidades até o final de 1979.

Fonte: aqui.

Em linguagem de “criador de conteúdo digital” de “redes sociais”…

Projetar manualmente cada transistor de um processador levava anos e estava repleto de erros. No centro de pesquisas da Xerox PARC, Lynn Conway e Carver Mead propuseram uma revolução: e se o projeto de chips pudesse ser abstraído, como programar software?

Eles criaram o conceito de “Very Large Scale Integration” (VLSI) e escreveram o livro “Introduction to VLSI Systems”. A inovação central era uma metodologia de projeto estruturado onde engenheiros descreviam circuitos usando linguagens de descrição de hardware, e ferramentas de CAD automaticamente convertiam essa descrição em máscaras de silício. Conway desenvolveu as regras de projeto escalável (scaling rules) que previam como os chips se comportariam ao serem miniaturizados.

Em 1979, Conway liderou o projeto “MPC79”, a primeira demonstração em larga escala da metodologia. Estudantes de universidades como MIT e Stanford projetaram chips complexos em semanas, não anos. Todos os chips funcionaram na primeira tentativa. Esse sucesso provou que a automação do projeto de circuitos integrados era não só possível, mas inevitável.

O impacto foi absoluto. A metodologia de Conway e Mead se tornou a base das ferramentas EDA (Electronic Design Automation) usadas pela Intel, AMD e Apple hoje. Seus princípios permitiram a transição para designs RISC, a criação de processadores com milhões de transistores e, em última análise, a Lei de Moore. Lynn Conway não projetou um chip específico; ela projetou o sistema que permite que todos os chips existam.

A maior inovação em hardware do século 20 não foi um transistor ou um material. Foi uma ideia: que projetar chips deveria ser mais sobre lógica e menos sobre desenhar linhas manualmente em uma lâmina de rubilite.

Fonte: Conway, L.; Mead, C. “Introduction to VLSI Systems”, 1980.

(No momento, links do Facebook parecem estar entregues à IA: – Você copia, e quando vai testar… “Essa página não existe”. – Mas, quem precisa conferir “conteúdo digital” no Facebook?).

Entre as 2 versões – a mais “séria”, quase ininteligível – e a “bobinha”, que a gente entende mas não sabe se pode confiar – fica a impressão de um passo enorme, ao se desistir do desenho em prancheta para adotar um CAD “inteligente”, similar ao Aladin da Lâmpada Mágica, que você diz o que deseja e ele entrega o desenho pronto.

Até aí, uma IA “controlada” – que reúne e aplica os conhecimentos do programador – sem “inventar moda”.

Quem “aprende” e “treina” é o programador – e não, uma IA descontrolada, que torra zilhões de kWh, consome zilhões de metros cúbicos de água para resfriar – para reunir todo tipo de cretinices encontradas na web e construir, em 1 segundo, discursos, narrativas, “soluções”… que levaria 10 anos para verificar se está Ok.

Falta equilibrar essa maluquice – e dar um jeito de gastar só 0,1% desses kWh e água.

2 curtidas

o Cinnamon também possui extensões.