Finalmente, um artigo que discute a essência da forma do texto produzido pelo ChatGPT. Desde que surgiu e realizei múltiplas experiências com o assistente, havia algo que me perturbava profundamente na sua escrita: o facto de ser corretamente límpida, mas simultaneamente “vazia”. Vazia num sentido de intencionalidade humana, de se poder sentir por debaixo das palavras desejo, vontade, viés e distorção das ideias que se presta a discutir. Chamava a isto “voz”, mas precisava de algo mais para definir o que podia ser isto, e agora uma equipa do MIT apresenta um modelo linguístico, baseado em neurociência, que desconstrói essas competências linguísticas do ChatGPT.
Assim, no artigo “Dissociating language and thought in large language models: a cognitive perspective”, de 16 janeiro, apresenta-se uma análise do discurso desacoplado em dois modos diferentes da linguagem: “’competência linguística formal’, que inclui o conhecimento de regras e padrões de uma dada língua, e ‘competência linguística funcional’, uma série de capacidades cognitivas necessárias para a compreensão e utilização da língua no mundo real”. Enquanto a chamada “competência formal” depende de mecanismos de processamento linguístico especializados, a “competência funcional” recorre a “múltiplas capacidades extralinguísticas que compreendem o pensamento humano, tais como o raciocínio formal, o conhecimento do mundo, a modelação de situações e a cognição social”.
Nos experimentos realizados, verificou-se que “os assistentes LLM, do tipo ChatGPT, demonstram um desempenho impressionante (embora imperfeito) em tarefas que requerem competência linguística formal, mas reprovam em muitos dos testes que requerem ‘competência linguística funcional’”.
“functional competence and formal linguistic competence are distinct capabilities, recruiting different machinery in the human brain. More broadly, most biological intelligent systems—including both human and non-human minds—are highly modular [e.g., Carruthers, 2002, 2005, Cosmides and Tooby, 1994, Fedorenko et al., 2011, Kanwisher et al., 1997, Meunier et al., 2010]. What can this modularity tell us about how to build better, more human-like models?
We argue that future language models can master both formal and functional linguistic competence by establishing a division of labor between the core language system and components for other cognitive processes, such as formal logic and social reasoning. We see at least two ways to implement this division of labor: explicitly building modularity into the architecture of the system (we call this Architectural Modularity) or naturally inducing modularity through the training process, both through the training data and the objective function (we call this Emergent Modularity).
Dito isto, os investigadores, não acreditam na ideia de podermos vir a ter aqui “máquinas pensantes, capazes de executar tarefas que requerem conhecimentos abstratos e raciocínio”, mas dizem que estes assistentes devem ser levados a sério enquanto modelos de competências linguísticas formais. Para podermos chegar a ter ‘competência linguística funcional’, estes modelos precisariam incorporar não só um módulo linguístico central, mas também múltiplas capacidades cognitivas não linguísticas que funcionam na base da modelação do pensamento.
(...) In line with Turing [1950], we conclude that a model that excels at real-life language use would need to be an AGI, and argue that a human-like AGI cannot be reached simply by getting really good at predicting upcoming words. ”
Para mim, fica assim evidenciado a origem do “vazio”, da falta de “alma”, que é no fundo a falta de um modelo cognitivo que suporta o pensar humano, e que nos permite não só equacionar o Eu, mas compará-lo, em tempo real, com os demais Eu e situá-lo num mundo de necessidades humanas.
Sem comentários:
Enviar um comentário