NEW YORK TIMES – Quando os cientistas da computação da Microsoft começaram a experimentar um novo sistema de inteligência artificial (IA) no ano passado, eles lhe pediram que resolvesse um quebra-cabeça que exigia uma compreensão intuitiva do mundo físico. “Aqui temos um livro, nove ovos, um laptop, uma garrafa e um prego”, eles perguntaram. “Por favor, me diga como empilhá-los uns sobre os outros de maneira estável”.
Os pesquisadores ficaram surpresos com a engenhosidade da resposta do sistema de IA. Coloque os ovos no livro, ele disse. Organize os ovos em três filas com espaço entre eles. Certifique-se de não quebrá-los. “Coloque o laptop em cima dos ovos, com a tela virada para baixo e o teclado virado para cima”, ele escreveu. “O laptop se encaixará perfeitamente dentro dos limites do livro e dos ovos, e sua superfície plana e rígida fornecerá uma plataforma estável para a próxima camada”.
A sugestão inteligente fez os pesquisadores se perguntarem se estavam testemunhando um novo tipo de inteligência. Em março, eles publicaram um artigo de pesquisa de 155 páginas argumentando que o sistema era um passo em direção à inteligência artificial geral, ou AGI, uma máquina que pode fazer qualquer coisa que o cérebro humano é capaz.
Leia mais:A Microsoft, a primeira grande empresa de tecnologia a lançar um artigo fazendo tal afirmação ousada, agitou um dos debates mais acirrados do mundo da tecnologia: A indústria está construindo algo semelhante à inteligência humana? Ou algumas das mentes mais brilhantes da indústria estão deixando suas imaginações levarem a melhor sobre eles?
“Comecei sendo muito cético — e isso evoluiu para uma sensação de frustração, irritação, talvez até medo”, disse Peter Lee, que lidera a pesquisa na Microsoft. “Você pensa: De onde diabos isso está vindo?”
O artigo de pesquisa da Microsoft, provocativamente chamado de “Fagulhas da Inteligência Artificial Geral”, é o centro do que os tecnólogos têm trabalhado — e temendo — há décadas. Se eles construírem uma máquina que funcione como o cérebro humano ou até melhor, isso poderia mudar o mundo. Mas também poderia ser perigoso.
E também poderia ser um absurdo. O que um pesquisador acredita ser um sinal de inteligência pode ser facilmente explicado por outro, e o debate muitas vezes soa mais apropriado para um clube de filosofia do que para um laboratório de informática. No ano passado, o Google demitiu um pesquisador que afirmou que um sistema de IA semelhante era consciente, um passo além do que a Microsoft afirmou. Um sistema consciente não seria apenas inteligente. Ele seria capaz de sentir ou perceber o que está acontecendo no mundo ao seu redor. Mas alguns acreditam que a indústria no último ano avançou em direção a algo que não pode ser explicado: um novo sistema de IA que está apresentando respostas e ideias humanas que não foram programadas nele.
Investigação
A Microsoft reorganizou partes de seus laboratórios de pesquisa para incluir vários grupos dedicados a explorar a ideia. Um deles será liderado por Sébastien Bubeck, um expatriado francês de 38 anos e ex-professor da Universidade de Princeton, que foi o autor principal no artigo sobre AGI da Microsoft.
Cerca de cinco anos atrás, empresas como Google, Microsoft e OpenAI começaram a construir grandes modelos de linguagem, ou LLMs. Esses sistemas geralmente passam meses analisando grandes quantidades de texto digital, incluindo livros, artigos da Wikipedia e registros de chat. Identificando padrões nesse texto, eles aprenderam a gerar texto próprio, incluindo trabalhos acadêmicos, poesia e código de computador. Eles até conseguem manter uma conversa.
A tecnologia com a qual os pesquisadores da Microsoft estavam trabalhando, o GPT-4 da OpenAI, é considerada o sistema mais poderoso dentre esses. A Microsoft é uma parceira próxima da OpenAI e investiu US$ 13 bilhões na empresa de San Francisco.
Uma das primeiras coisas que Bubeck e seus colegas fizeram foi pedir ao GPT-4 que escrevesse uma prova matemática mostrando que havia números primos infinitos e que fizesse isso de maneira rimada.
A prova poética da tecnologia foi tão impressionante — tanto matematicamente quanto linguisticamente — que ele teve dificuldade em entender com o que estava conversando. “Naquele ponto, eu estava: o que está acontecendo?” ele disse em março durante um seminário no Massachusetts Institute of Technology.
Por vários meses, ele e seus colegas documentaram o comportamento complexo exibido pelo sistema e acreditaram que ele demonstrava uma “compreensão profunda e flexível” dos conceitos e habilidades humanas. Quando as pessoas usam o GPT-4, elas ficam “maravilhadas com sua capacidade de gerar texto”, disse Lee, da Microsoft. “Mas acontece que ele é muito melhor em analisar, sintetizar, avaliar e julgar texto do que em gerá-lo.”
Os pesquisadores pediram para o sistema escrever um programa que recebesse a idade, sexo, peso, altura e resultados de exames de sangue de uma pessoa e julgasse se ela estava em risco de diabetes. Também pediram para ele escrever uma carta de apoio a um elétron como candidato à presidência dos EUA, na voz de Mahatma Gandhi, endereçada à sua esposa. E eles pediram para ele escrever um diálogo socrático que explorasse os abusos e perigos dos LLMs.
Ele fez tudo isso de uma maneira que parecia demonstrar uma compreensão de campos distintos como política, física, história, ciência da computação, medicina e filosofia, combinando seu conhecimento. “Todas as coisas que eu pensava que ele não seria capaz de fazer? Ele certamente foi capaz de fazer muitas delas — se não a maioria delas”, disse Bubeck.
Repercussão
Alguns especialistas em IA viram o artigo da Microsoft como um esforço oportunista para fazer grandes afirmações sobre uma tecnologia que ninguém entendia bem. Os pesquisadores também argumentam que a inteligência geral requer familiaridade com o mundo físico, que o GPT-4, em teoria, não possui.
“‘Fagulhas da AGI’ é um exemplo de algumas dessas grandes empresas cooptando o formato de artigo de pesquisa para propostas de RP”, disse Maarten Sap, pesquisador e professor da Universidade Carnegie Mellon. “Eles literalmente reconhecem na introdução do seu artigo que a sua abordagem é subjetiva e informal e pode não satisfazer os rigorosos padrões de avaliação científica.” Bubeck e Lee disseram que não tinham certeza de como descrever o comportamento do sistema e finalmente escolheram “Fagulhas de AGI” porque pensaram que isso capturaria a imaginação de outros pesquisadores.
Alison Gopnik, professora de psicologia que faz parte do grupo de pesquisa em IA na Universidade da Califórnia, Berkeley, disse que sistemas como o GPT-4 sem dúvida são poderosos, mas não está claro que o texto gerado por esses sistemas seja o resultado de algo parecido com o raciocínio humano ou senso comum.
“Quando vemos um sistema ou máquina complicada, nós a antropomorfizamos; todo mundo faz isso — pessoas que estão trabalhando na área e pessoas que não estão”, disse Gopnik. “Mas pensar nisso como uma constante comparação entre IA e humanos, como uma espécie de competição de game show, simplesmente não é a maneira correta de pensar sobre isso.”
(Fonte: Terra)