24 de novembro de 2024
IA recebe treinamento em pesquisa e fica mais parecida com
Compartilhe:

Cientistas da Universidade Politécnica de Hong Kong compararam o funcionamento do cérebro humano e dos grandes modelos de linguagem (LLMs) na compreensão de textos. A equipe mapeou os modelos neurais humanos para criar uma tecnologia capaz de ensinar a inteligência artificial (IA) a prever frases em discursos como conversas e textos. O estudo foi publicado na revista Science Advances.

Entenda:

  • Cientistas compararam o funcionamento do cérebro humano e de grandes modelos de linguagem (LLMs) na compreensão de textos;
  • Modelos neurais humanos foram mapeados para criar uma tecnologia capaz de ensinar a IA a prever frases em discursos;
  • Dois modelos foram treinados – um deles contando com uma técnica de previsão da próxima frase;
  • Com o modelo aprimorado, os pesquisadores obtiveram resultados mais semelhantes à atividade cerebral humana;
  • As descobertas “promovem a interação e a colaboração entre pesquisadores nas áreas de IA e neurocognição”;
  • O estudo foi publicado na revista Science Advances.
Cérebro humano ajudou a treinar modelos de IA. (Imagem gerada por inteligência artificial DALL-E/ Nayra Teles)

O pré-treinamento de LLMs como o ChatGPT depende, principalmente, da previsão contextual de palavras – que até pode servir como um modelo razoável do processamento de linguagem pelos humanos, mas, muito além de simplesmente prever a próxima palavra ou frase em uma conversa, nós também temos a habilidade de “integrar palavras e frases para alcançar uma compreensão completa do discurso”, como explica a equipe no estudo.

Leia mais:

  • IA precisa de um corpo para pensar como ser humano? Pesquisa traz resposta
  • Cientistas criaram primeiro tecido cerebral com impressora 3D — e ele funciona!
  • Em acordo histórico, big techs topam criar ‘botão de pânico’ para IA

IA aprimorada se aproxima das atividades do cérebro humano

Os pesquisadores treinaram dois modelos: um deles foi aprimorado com uma técnica chamada de previsão da próxima frase, o outro, não. Usando, também, dados de ressonâncias magnéticas de pessoas lendo sentenças conexas ou desconexas, a equipe examinou a correspondência de cada um dos dois modelos aos padrões cerebrais.

Modelo de IA aprimorada se assemelha ao cérebro humano. (Imagem: Flavia Correia via DALL-E/Olhar Digital)

Como resultado, os cientistas observaram que o modelo aprimorado se aproximou muito mais da atividade cerebral humana do que o outro modelo. “O estudo demonstra que a inclusão de diversos objetivos de aprendizagem em um modelo leva a representações mais humanas, e a investigação pode lançar luz sobre questões pendentes na neurociência da linguagem”, afirmam na pesquisa. 

“As descobertas mostram como os pesquisadores neurocognitivos podem aproveitar os LLMs para estudar mecanismos de linguagem de nível superior do nosso cérebro. Eles também promovem a interação e a colaboração entre pesquisadores nas áreas de IA e neurocognição, o que levará a futuros estudos cerebrais baseados em IA, bem como IA inspirada no cérebro.”

O post IA recebe treinamento em pesquisa e fica mais parecida com nosso cérebro apareceu primeiro em Olhar Digital.

Fonte: https://olhardigital.com.br/2024/05/28/ciencia-e-espaco/ia-recebe-treinamento-em-pesquisa-e-fica-mais-parecida-com-nosso-cerebro/