A IA é repetidamente mostrada como uma ameaça a toda a humanidade. No entanto, um novo estudo argumenta que não existe tal ameaça…agora. Deveríamos estar mais preocupados como ela é utilizada.
Um estudo conjunto da Universidade de Bath e da Universidade Técnica de Darmstadt na Alemanha, mostra que os modelos de linguagem (LLM) atuais não conseguem aprender por conta própria. Podem apenas seguir instruções e tarefas.
Os LLM’s, como estão agora, podem ser lançados sem preocupações de segurança. A única ameaça que a inteligência artificial pode representar é o uso malicioso por pessoas reais.
O medo tem sido que, à medida que os modelos ficam cada vez maiores, sejam capazes de resolver novos problemas que não podemos prever, representando uma “ameaça” ma aquisição de habilidades perigosas, incluindo raciocínio e planejamento.
Seria um erro usar IA na execução de tarefas complexas que exigem raciocínio complexo sem instruções claras. Para se obter um bom resultado, deve-se descrever a tarefa da forma mais ampla possível e com todos os detalhes.
O suposto surgimento de habilidades de pensamento complexas, associadas a ameaças específicas, não é possível atualmente e podemos controlar muito bem o processo de aprendizagem de LLMs.
Ao menos por enquanto…
Fonte: mezha