A ideia não é nova:
Desde a década de 1950 (pelo menos), a “ficção-científica” brincava de imaginar computadores cada vez maiores – até o ponto em que nenhum ser humano poderia continuar entendendo alguma coisa daquela trapizonga – e computadores complexos passariam a criar computadores cada vez mais complexos.
Asimov seria o exemplo mais óbvio – e é divertido ler suas obras por ordem cronológica, ao longo das décadas – à medida em que ele vai “atualizando” seus mega-computadores imaginários. – No começo, máquinas enormes, ocupando cavernas imensas… mas ainda “presos” à comunicação via “terminais” – teclado, fita perfurada… depois uma impressora tosca… por fim um monitor de vídeo… – e no final, hiper-computadores miniaturizados, com “teclados” sem teclas, apenas para as mãos estabelecerem contato direto com o cérebro (a única coisa à frente do que já existia).
Mas Asimov era bioquímico (e “popularizador” de ciência para leigos). – Bem melhor era Arthur C. Clarke, que entendia um pouco mais dessas coisas, e bolou o “HAL” da nave espacial de “2001 - Uma odisseia no espaço”, nos anos 60. – Mais tarde, ele desenvolveu ainda mais essas ideias, em “2010”, “2061”, “3001” (ou algo assim). – Cada vez mais fora do alcance do cérebro humano.
Na vida real, até certo momento a “lógica” era comandada por válvulas a vácuo – umas ampolas de vidro, ligadas por emaranhados de fios igual um prato de spaghetti – e isso realmente exigia muito espaço para crescer.
Conheci um “demonstrativo” desse tipo de computador na escola, em 1968 (devia ser bem mais antigo): – um chassis com 8 válvulas – e uma série de fios com plugs, para “programá-lo”. Imagine…
Aquele tipo de “tecnologia” já estava superado, claro. – Transístores existiam desde 1947 – e o Circuito Integrado, desde 1960.
Até aí, já se conseguia fazer chips com mais de 10.000 transístores – mas projetar um “circuito integrado” exigia a colaboração de “físicos, engenheiros e fábricas que entendiam a tecnologia de circuitos integrados”:
A capacidade de projetar tais circuitos estava concentrada na indústria, com as universidades lutando para acompanhar o ritmo. Logo, o número de transistores que cabiam em um chip começou a dobrar a cada ano [ 3 ] e, desde 1975, vem dobrando a cada dois anos . Circuitos muito mais complexos podiam então caber em um único chip, mas os físicos de dispositivos que fabricavam os chips não eram especialistas em projeto de circuitos eletrônicos, portanto, seus projetos eram limitados mais por sua experiência e imaginação do que por limitações da tecnologia.
Em 1978-79, quando aproximadamente 20.000 transistores podiam ser fabricados em um único chip, Carver Mead e Lynn Conway escreveram o livro-texto Introduction to VLSI Systems [ 1 ] . Publicado em 1979, tornou-se um best-seller, por ser o primeiro livro-texto sobre projeto de VLSI (Very Large Scale Integration) utilizável por não-físicos. Os autores pretendiam que o livro preenchesse uma lacuna na literatura e introduzisse estudantes de engenharia elétrica e ciência da computação à arquitetura de sistemas integrados . Este livro-texto desencadeou um avanço na educação, bem como na prática industrial. Professores de ciência da computação e engenharia elétrica em todo o mundo começaram a ensinar projeto de sistemas VLSI usando este livro-texto. Muitos deles também obtiveram uma cópia das anotações de Lynn Conway de seu famoso curso no MIT em 1978, que incluía uma coleção de exercícios. [ 4 ]
Um marco importante que se seguiu foi o conceito de Chip Multiprojeto (MPC), que permitiu a fabricação de múltiplos projetos em um único wafer, reduzindo drasticamente os custos a ponto de possibilitar a produção em pequena escala de exercícios e protótipos de estudantes. A primeira operação bem-sucedida de uma linha MPC foi demonstrada no curso de projeto VLSI de Lynn Conway, no MIT, em 1978. Poucas semanas após a conclusão de seus projetos, os alunos já tinham os protótipos fabricados em mãos, prontos para testes. O novo sistema e serviço de implementação VLSI MPC da Xerox PARC, aprimorado por Lynn Conway, foi operado com sucesso em uma dúzia de universidades até o final de 1979.
Fonte: aqui.
Em linguagem de “criador de conteúdo digital” de “redes sociais”…
Projetar manualmente cada transistor de um processador levava anos e estava repleto de erros. No centro de pesquisas da Xerox PARC, Lynn Conway e Carver Mead propuseram uma revolução: e se o projeto de chips pudesse ser abstraído, como programar software?
Eles criaram o conceito de “Very Large Scale Integration” (VLSI) e escreveram o livro “Introduction to VLSI Systems”. A inovação central era uma metodologia de projeto estruturado onde engenheiros descreviam circuitos usando linguagens de descrição de hardware, e ferramentas de CAD automaticamente convertiam essa descrição em máscaras de silício. Conway desenvolveu as regras de projeto escalável (scaling rules) que previam como os chips se comportariam ao serem miniaturizados.
Em 1979, Conway liderou o projeto “MPC79”, a primeira demonstração em larga escala da metodologia. Estudantes de universidades como MIT e Stanford projetaram chips complexos em semanas, não anos. Todos os chips funcionaram na primeira tentativa. Esse sucesso provou que a automação do projeto de circuitos integrados era não só possível, mas inevitável.
O impacto foi absoluto. A metodologia de Conway e Mead se tornou a base das ferramentas EDA (Electronic Design Automation) usadas pela Intel, AMD e Apple hoje. Seus princípios permitiram a transição para designs RISC, a criação de processadores com milhões de transistores e, em última análise, a Lei de Moore. Lynn Conway não projetou um chip específico; ela projetou o sistema que permite que todos os chips existam.
A maior inovação em hardware do século 20 não foi um transistor ou um material. Foi uma ideia: que projetar chips deveria ser mais sobre lógica e menos sobre desenhar linhas manualmente em uma lâmina de rubilite.
Fonte: Conway, L.; Mead, C. “Introduction to VLSI Systems”, 1980.
(No momento, links do Facebook parecem estar entregues à IA: – Você copia, e quando vai testar… “Essa página não existe”. – Mas, quem precisa conferir “conteúdo digital” no Facebook?).
Entre as 2 versões – a mais “séria”, quase ininteligível – e a “bobinha”, que a gente entende mas não sabe se pode confiar – fica a impressão de um passo enorme, ao se desistir do desenho em prancheta para adotar um CAD “inteligente”, similar ao Aladin da Lâmpada Mágica, que você diz o que deseja e ele entrega o desenho pronto.
Até aí, uma IA “controlada” – que reúne e aplica os conhecimentos do programador – sem “inventar moda”.
Quem “aprende” e “treina” é o programador – e não, uma IA descontrolada, que torra zilhões de kWh, consome zilhões de metros cúbicos de água para resfriar – para reunir todo tipo de cretinices encontradas na web e construir, em 1 segundo, discursos, narrativas, “soluções”… que levaria 10 anos para verificar se está Ok.
Falta equilibrar essa maluquice – e dar um jeito de gastar só 0,1% desses kWh e água.