O artigo discute as limitações dos grandes modelos de linguagem (LLMs) na modelagem precisa da linguagem e cognição humanas, argumentando que as suposições subjacentes ao desenvolvimento de LLMs, como a “suposição de completude da linguagem” e a “suposição de completude dos dados”, são falhas.
Para os autores, a linguagem é um comportamento corporificado e encenado, envolvendo fatores como tom de voz, gesto e contexto emocional, que não podem ser totalmente capturados por dados de treinamento baseados em texto.
As alegações sobre as capacidades dos LLMs de “entender a linguagem”, são exageros que podem ter implicações terríveis para a participação social, agência humana e decisões políticas.
O documento também destaca os riscos de liberar esses modelos em domínios importantes como educação e medicina sem testes e avaliações adequados.
Leia o artigo original em theregister.