Novo sistema criado pela Universidade Técnica de Hong Kong se inspirou em processo usado pelo hemisfério direito do cérebro em atividade de compreensão de textos
Grandes avanços na história da inteligência artificial raramente ocorreram em tentativas de reconstruir a estrutura da mente humana. Chips de silício operam de modo muito diferente de neurônios, e a programação das novas e assombrosas ferramentas de chat não usam uma forma de raciocínio similar à de pessoas. Um grupo de cientistas chineses, porém, acaba de atingir um novo marco na equiparação entre cérebros eletrônicos e orgânicos.
Liderada pelo linguista Andrew Li Ping, da Universidade Politécnica de Hong Kong, a equipe criou dois sistema de IA similares ao ChatGPT e os submeteu a uma bateria de testes de leitura. Os mesmos testes já haviam sido aplicados antes a humanos que tiveram a atividade cerebral mapeada por ressonância magnética. A ideia era tentar comparar, de alguma forma, o pensamento que se dá pelas sinapses (conexões entre neurônios) com aquele que ocorre na programação das LLMs.
Usando um artifício de programação para tornar a estrutura de raciocínio do software mais similar à de humanos, os pesquisadores relatam ter conseguido não só melhorar o desempenho da IA mas também produzir insights sobre como a mente das pessoas funciona para interpretar textos. Em um estudo publicado nesta semana na revista Science Advances, os cientistas sugerem que a pesquisa sugere que o hemisfério direito do cérebro tem um papel relevante na compreensão geral de narrativas.
A ideia que permitiu aos cientistas avançar nessa abordagem nasceu num campo de pesquisa com o nome técnico de “análise representacional de dissimilaridade” (RDM). É uma expressão pomposa para descrever uma área multidisciplinar de ciência que trata comparar sistemas com natureza distinta.
Poucas coisas são mais distintas que cérebros e computadores. Apesar de serem ambos sistemas com a função de pensar, os neurônios e as malhas de silício em chips eletrônicos não possuem a mesma essência. Para compará-los, os cientistas precisam ignorar a constituição material desses componentes, e enxergar sua estrutura de modo mais abstrato. O estudo do grupo de Hong Kong olhou então para o nível básico de funcionalidade da maneira com que máquina e humanos raciocinam.
Primeiro, passando tarefas de leitura a humanos dentro das máquinas de ressonância, neurocientistas conseguem identificar padrões de pensamento que emergem de ativação no cérebro quando essas pessoas leem palavras relacionas, em comparação à leitura de palavras desconexas.
— Por exemplo, para alguns pares de informação, como “vaca” e “fazenda”, podemos atribuir uma relação mais próxima do que para outros, como “vaca” e “avião”. Uma análise pode nos dizer se o cérebro considera esses pares de informação próximos ou distantes com base em padrões de ativação lidos por ressonância magnética — explica Li Ping. — Da mesma forma, podemos fazer a análise de um modelo computacional de linguagem para que ele nos mostre a relação de distância entre esses fragmentos de informação.
Compilando essas listas de pares de palavras em uma matriz (essencialmente uma tabela), os cientistas obtém uma maneira de comparar o funcionamento de máquinas e pessoas.
Previsão de palavras
O conceito de “distância” entre unidades de informação tem um sentido literal na inteligência artificial moderna, porque ferramentas como o ChatGPT funcionam essencialmente medindo o quão longe diferentes palavras estão nos textos que são usados para “treiná-las”. O computador assume que palavras que aparecem juntas com mais frequência são mais correlatas. Aquelas que costumam aparecer distantes têm então menos conexão.
A capacidade aparentemente mágica que os sistemas LLM têm de gerar novas frases partindo de perguntas do usuário é, na verdade, um programa que tenta prever qual palavra é mais provável ocorrer, uma após a outra, com base na análise estatística dos textos de treinamento.
Mas é difícil comparar o jeito humano de pensar com o modo de pensar usado pelo ChatGPT. Quando uma pessoa discursa, ela não está pensando: “Acabei de usar estas palavras. Que palavra soa melhor agora?”. As narrativas que compomos em nossas mentes possuem significado num nível maior, o sentido das frases e a história que elas representam quando são agrupadas.
— Os humanos não são máquinas de prever de palavras. Nós entendemos linguagem em múltiplos níveis, integramos informação de outros sistemas cognitivos, como a visão, e temos o propósito de nos comunicar — diz Li Ping.
Computadores não têm “propósito” próprio, a não ser o de obedecer os comandos de programação que recebem. Para tentar deixar a inteligência artificial mais próxima do jeito humano de pensar, o que o linguista chinês foi criar duas LLMs baseadas no mesmo corpo de textos. Uma delas usava um modelo similar ao ChatGPT, tentando prever palavras. A outra, porém, atuava um nível acima: trabalhava tentando prever frases inteiras.
Compreensão de narrativa
Em seu ultimo experimento, os pesquisadores então colocaram esses dois sistemas à prova para verificar se conseguiriam “entender” um texto simples (uma redação sobre a exploração de Marte). Usaram também outro texto que não passava de uma lista de frases desconexas.
Após o treinamento, ambos os sistemas conseguiam identificar que uma frase como: “A Nasa envia sondas para explorar Marte” e “Humanos podem ir a Marte um dia?” estão relacionadas. Da mesma maneira, o sistema tinha alguma capacidade de perceber frases que não tinham nada a ver uma com a outra. (“Um apartamento é parte de um prédio” e “Pinguins são aves que não voam” são sentenças que dificilmente iriam parar numa mesma narrativa.)
Os conjuntos de texto escolhidos no teste das LLMs, de modo planejado, já tinham sido testados pelos humanos voluntários dos experimentos com ressonância magnética. Um deles foi o The Reading Brain Project, coordenado pelo próprio Ping Li em 2019, o outro pelo português Francisco Pereira, da Siemens (fabricante dos aparelhos de ressonância) em 2018.
Li Ping cruzou então os dados de seu novo experimento com o desses outros e comparou o resultado de leituras humanas como os de seus dois sistemas de inteligência artificial, os LLMs.
Não é a primeira vez que a IA se beneficia da neurociência. O conceito de “redes neurais” em computação, criado ainda na década de 1950, ajudou mais tarde o campo a progredir muito.Esses sistemas consistem em empregar níveis de análises cada vez mais complexas, umas sobre as outras, para encontrar padrões em informações limitadas. Essa ideia foi importada do estudo da neurociência da visão, porque os neurônios da retina se estruturam dessa maneira.
O uso de LLMs para tentar imitar raciocínio humano de alto nível, porém, leva a semelhança entre IA e cérebros humanos um capítulo além. A discussão sobre se máquinas são conscientes, por exemplo, envolve saber em que medida os computadores conseguem de fato “entender” o que eles estão fazendo. E é esse o caminho que os pesquisadores chineses estão trilhando.
Por enquanto, o trabalho de Li Ping é mais um marco acadêmico do que prático. Suas LLMs, treinadas com orçamento limitado, num conjunto de dados pequeno e com tempo de processamento curto, ainda não têm todo o poder de um ChatGPT. A importância da descoberta está no “como” e não em “o quê” a pesquisa obteve. O uso da “previsão de próxima sentença”, porém, promete gerar curiosidade por parte das gigantes de tecnologia na fronteira do desenvolvimento.
— Talvez os benefícios da previsão de próxima sentença não venham a ser perceptíveis para usuários, porque os LLMs atuais contornam o problema da compreensão real usando quantidades maciças de dados de treinamento para alavancar o sistema — diz o cientista chinês. — Mas se quisermos criar uma IA que possa raciocinar como humanos e aprender com eficiência, sem input de trilhões de parâmetros e unidades de texto, talvez seja crítico ela ter uma compreensão hierárquica mais completa do mundo e da linguagem.