Se ao menos Alan Turing tivesse vivido para ver isso. Em seu ensaio “Computing Machinery and Intelligence”, de 1950, o pioneiro da ciência da computação rebateu inúmeras objeções à ideia de que os computadores poderiam algum dia pensar. Ele estava firmemente convencido de que não existem argumentos fundamentais contra máquinas “pensantes” e “inteligentes”.
Naquela época, o número de computadores disponíveis em todo o mundo só podia ser contado nas duas mãos – e a maioria era operada por militares. Somente em 1951 é que o engenheiro John Presper Eckert e o físico John W. Mauchly trouxeram ao mercado dos EUA o Univac I, o primeiro computador universal disponível comercialmente – uma maravilha técnica com 5.200 válvulas, 18.000 diodos de cristal e uma RAM feito de mercúrio. A máquina exigia 35 metros quadrados de área útil e pesava 13 toneladas. Naquela época, ele poderia realizar vertiginosas 1.905 operações aritméticas por segundo – um processador multi-core moderno em um laptop moderno pode agora realizar várias centenas de bilhões de operações aritméticas por segundo.
73 anos depois, funcionários da Microsoft relatam experiências com uma versão inicial do grande modelo de linguagem GPT-4, que se comporta como uma máquina pensante. Experimentos cujos resultados pretendem mostrar “faíscas de inteligência geral”.
Com antecedência no Artigo publicado na plataforma de pré-impressão Arxiv Sébastien Bubeck, chefe do grupo de trabalho Machine Learning Foundations da Microsoft Research, e seus colegas listam vários exemplos surpreendentes disso: O modelo de linguagem não é apenas capaz de criar provas matemáticas – na forma de uma peça no estilo de Shakespeare (“Considere isto, meu colega duvidoso, uma prova inteligente que deixará claro: Suponha que haja um primo final, o maior que veremos com o tempo…”). Em situações ficcionais, também pode interpretar os sentimentos dos personagens envolvidos, resolver quebra-cabeças lógicos e explicar a solução, ou encontrar novos caminhos em um labirinto que só é descrito por meio de diferentes textos.
Comunidade de pesquisa dividida
Cientistas céticos enfatizam que grandes modelos de linguagem são apenas máquinas estatísticas. Mas por que, dizem outros, os modelos melhoram à medida que crescem? Então, por que eles podem desenvolver essas habilidades incríveis sem qualquer treinamento? Não será que há mais do que apenas estatísticas na impenetrável caixa negra dos grandes modelos? E se sim, como você descobre?