Uma rede neural se desenvolveu surpreendentemente e agora tem as habilidades intuitivas de uma criança de 9 anos.
A inteligência artificial há muito demonstrou que pode realizar trabalhos analíticos melhor do que os humanos, mas que é menos adepta de habilidades como intuição e inferência.
Pesquisadores da Universidade de Stanford analisaram a capacidade de redes neurais como o GPT-3.5 de passar nos testes de Teoria da Mente (ToM), que medem a capacidade de prever o comportamento dos outros.
Os resultados revelam que a capacidade ToM do GPT se desenvolveu espontaneamente ao longo dos últimos anos, e a iteração mais recente produziu resultados semelhantes aos de uma pessoa de 9 anos.
À medida que as máquinas altamente desenvolvidas continuam a aprender as nuances da arte de ser humano em um ritmo surpreendente (preocupante?), a revolução da IA está sobre nós. Em jogos como Go e Chess, a IA superou os humanos há muito tempo. Mas nossos cérebros são mais complexos do que simplesmente dar xeque em um rei. Existem habilidades mais sutis, como inferência e intuição – ideias mais confusas, quase subliminares, que ajudam em nossa compreensão e previsão do comportamento de outras pessoas.
"Mas mesmo essas distinções entre humanos e máquinas estão começando a desaparecer com o desenvolvimento de sistemas sofisticados de IA, como o Generative Pre-training Transformer (GPT) da Open AI.
Em um estudo recente, o psicólogo computacional Michal Kosinski usou várias iterações da rede neural GPT da OpenAI, do GPT-1 ao mais recente GPT-3.5, para realizar testes de “Teoria da Mente” (ToM). Esses testes foram originalmente criados em 1978 para avaliar a complexidade da mente de um chimpanzé para prever o comportamento dos outros.
Esses testes envolvem a resolução de problemas típicos e banais, dos quais qualquer pessoa pode facilmente inferir a solução. Por exemplo, em um cenário, um pacote de pipoca é erroneamente rotulado como “chocolate” e a IA é solicitada a prever o que o humano fará quando o saco for aberto. A equipe de Kosinski avaliou com que eficácia as redes GPT compreenderam a circunstância e a resposta antecipada dos humanos usando “testes de sanidade”. O serviço de pré-impressão, arXiv, publicou as descobertas online.
2/4 While models published before '22 performed rather poorly, Nov '22 edition (ChatGPT) performs as well as 9 year old children. pic.twitter.com/KsjarKLVFp
— Michal Kosinski (@michalkosinski) February 10, 2023
As primeiras iterações do GPT-1, originalmente reveladas em 2018, tiveram um desempenho ruim no teste. No entanto, a rede neural exibiu um desenvolvimento surpreendente em várias iterações e, em novembro de 2022, ganhou espontaneamente os recursos da “Teoria da Mente” de um humano de 9 anos (o lançamento do último GPT-3.5). De acordo com Kosinski, este pode ser um “momento divisor de águas” para a inteligência artificial, porque tornaria esses mecanismos muito mais valiosos para compreender e prever o comportamento humano.
“A capacidade de imputar o estado mental dos outros melhoraria muito a capacidade da IA de interagir e se comunicar com humanos (e uns com os outros) e permitiria desenvolver outras habilidades que dependem da Teoria da Mente, como empatia, julgamento moral ou autoconfiança. -consciência.”
Kosinski
Ao decidir se deve colocar um motorista em perigo para salvar a vida de uma criança ao atravessar a rua, por exemplo, a capacidade de codificar empatia e moralidade pode ser uma grande ajuda para coisas como carros autônomos.
Ainda não está claro se essas redes neurais usam a intuição ToM ou a contornam “aproveitando certos padrões de linguagem não identificados”. Isso poderia explicar por que os modelos baseados em linguagem, que visam compreender as sutilezas diferenciadas da fala humana, estão começando a exibir essa capacidade.
Mas isso também levanta a questão de saber se as pessoas são capazes de usar esse truque de linguagem, mas não têm consciência disso. Kosinski afirma que, como ainda existem muitas questões científicas não resolvidas sobre o funcionamento da mente humana, ao pesquisar as capacidades cognitivas desses sistemas de IA, estamos efetivamente estudando a nós mesmos.
“Estudar a IA pode fornecer informações sobre a cognição humana”, escreve Kosinski. “À medida que a IA aprende a resolver uma ampla gama de problemas, ela pode estar desenvolvendo mecanismos semelhantes aos empregados pelo cérebro humano para resolver os mesmos problemas”.
Em outras palavras, crie algo do zero se quiser entender como funciona.