Já paramos para pensar sobre o que os LLMs realmente modelam?

O artigo discute as limitações dos grandes modelos de linguagem (LLMs) na modelagem precisa da linguagem e cognição humanas, argumentando que as suposições subjacentes ao desenvolvimento de LLMs, como a “suposição de completude da linguagem” e a “suposição de completude dos dados”, são falhas.

Para os autores, a linguagem é um comportamento corporificado e encenado, envolvendo fatores como tom de voz, gesto e contexto emocional, que não podem ser totalmente capturados por dados de treinamento baseados em texto.

As alegações sobre as capacidades dos LLMs de “entender a linguagem”, são exageros que podem ter implicações terríveis para a participação social, agência humana e decisões políticas.

O documento também destaca os riscos de liberar esses modelos em domínios importantes como educação e medicina sem testes e avaliações adequados.

Leia o artigo original em theregister.

2 curtidas