Mon. Jul 22nd, 2024

Quando Elon Musk processou a OpenAI e seu presidente-executivo, Sam Altman, por quebra de contrato na quinta-feira, ele transformou as reivindicações do parceiro mais próximo da start-up, a Microsoft, em uma arma.

Ele citou repetidamente um artigo controverso, mas altamente influente, escrito por pesquisadores e altos executivos da Microsoft sobre o poder do GPT-4, o inovador sistema de inteligência artificial OpenAI lançado em março passado.

No artigo “Sparks of AGI”, o laboratório de pesquisa da Microsoft disse que – embora não entendesse como – o GPT-4 mostrou “faíscas” de “inteligência artificial geral”, ou AGI, uma máquina que pode fazer tudo o que o cérebro humano pode fazer.

Foi uma afirmação ousada e surgiu num momento em que as maiores empresas de tecnologia do mundo corriam para introduzir IA nos seus próprios produtos.

Musk está virando o jornal contra a OpenAI, dizendo que isso mostrou como a OpenAI voltou atrás em seus compromissos de não comercializar produtos verdadeiramente poderosos.

A Microsoft e a OpenAI não quiseram comentar o processo. (O New York Times processou ambas as empresas, alegando violação de direitos autorais no treinamento do GPT-4.) Musk não respondeu a um pedido de comentário.

Uma equipe de pesquisadores da Microsoft, liderada por Sébastien Bubeck, um expatriado francês de 38 anos e ex-professor de Princeton, começou a testar uma versão inicial do GPT-4 no outono de 2022, meses antes de a tecnologia ser lançada ao público. A Microsoft comprometeu 13 mil milhões de dólares com a OpenAI e negociou acesso exclusivo às tecnologias subjacentes que alimentam os seus sistemas de IA.

Enquanto conversavam com o sistema, ficaram surpresos. Ele escreveu uma prova matemática complexa na forma de um poema, gerou um código de computador que poderia desenhar um unicórnio e explicou a melhor maneira de empilhar uma coleção aleatória e eclética de utensílios domésticos. Bubeck e seus colegas pesquisadores começaram a se perguntar se estariam testemunhando uma nova forma de inteligência.

“Comecei sendo muito cético – e isso evoluiu para uma sensação de frustração, aborrecimento e talvez até medo”, disse Peter Lee, chefe de pesquisa da Microsoft. “Você pensa: de onde diabos isso vem?”

Musk argumentou que a OpenAI violou seu contrato porque concordou em não comercializar nenhum produto que seu conselho considerasse AGI

“GPT-4 é um algoritmo AGI”, escreveram os advogados de Musk. Eles disseram que isso significava que o sistema nunca deveria ter sido licenciado para a Microsoft.

A denúncia de Musk citou repetidamente o artigo de Sparks para argumentar que o GPT-4 era AGI. Seus advogados disseram: “Os próprios cientistas da Microsoft reconhecem que o GPT-4 ‘atinge uma forma de inteligência geral’” e dada “a amplitude e profundidade do GPT- 4, acreditamos que ele poderia ser razoavelmente visto como uma versão inicial (mas ainda incompleta) de um sistema de inteligência artificial geral (AGI).

O artigo teve enorme influência desde que foi publicado, uma semana após o lançamento do GPT-4.

Thomas Wolf, cofundador da importante start-up de IA Hugging Face, escreveu no X no dia seguinte que o estudo “tinha exemplos completamente alucinantes” de GPT-4.

Desde então, a pesquisa da Microsoft foi citada por mais de 1.500 outros artigos, de acordo com o Google Scholar. É um dos artigos mais citados sobre IA nos últimos cinco anos, segundo o Semantic Scholar.

Também enfrentou críticas de especialistas, incluindo alguns dentro da Microsoft, que estavam preocupados com a falta de rigor do documento de 155 páginas que apoiava a afirmação e alimentando um frenesi de marketing de IA.

O artigo não foi revisado por pares e seus resultados não podem ser reproduzidos porque foi conduzido em versões anteriores do GPT-4 que eram bem guardadas na Microsoft e na OpenAI. Como os autores observaram no artigo, eles não usaram a versão GPT-4 que foi posteriormente divulgada ao público, portanto, qualquer outra pessoa que replicasse os experimentos obteria resultados diferentes.

Alguns especialistas externos disseram que não estava claro se o GPT-4 e sistemas similares exibiam comportamento semelhante ao raciocínio humano ou ao bom senso.

“Quando vemos um sistema ou máquina complicado, nós o antropomorfizamos; todo mundo faz isso – pessoas que trabalham na área e pessoas que não estão”, disse Alison Gopnik, professora da Universidade da Califórnia, Berkeley. “Mas pensar nisso como uma comparação constante entre IA e humanos – como uma espécie de competição de game show – simplesmente não é a maneira certa de pensar sobre isso.”

Na introdução do artigo, os autores inicialmente definiram “inteligência” citando um artigo de opinião do Wall Street Journal de 30 anos que, ao defender um conceito chamado Curva de Bell, afirmava que “judeus e asiáticos orientais” eram mais propensos a ter QI mais elevados. do que “negros e hispânicos”.

Lee, listado como autor do artigo, disse em uma entrevista no ano passado que, quando os pesquisadores estavam procurando definir AGI, “nós pegamos isso da Wikipedia”. Ele disse que, quando mais tarde souberam da conexão Bell Curve, “ficamos realmente mortificados com isso e fizemos a mudança imediatamente”.

Eric Horvitz, cientista-chefe da Microsoft, que foi um dos principais contribuidores do artigo, escreveu em um e-mail que assumiu pessoalmente a responsabilidade pela inserção da referência, dizendo que tinha visto referência a ela em um artigo de um cofundador do laboratório DeepMind AI do Google. e não tinha notado as referências racistas. Quando souberam disso, em uma postagem no X, “ficamos horrorizados, pois estávamos simplesmente procurando uma definição razoavelmente ampla de inteligência por parte dos psicólogos”, disse ele.

Quando os pesquisadores da Microsoft escreveram inicialmente o artigo, eles o chamaram de “Primeiro contato com um sistema AGI”. Mas alguns membros da equipe, incluindo o Dr. Horvitz, discordaram da caracterização.

Mais tarde, ele disse ao The Times que eles não estavam vendo algo que ele “chamaria de ‘inteligência artificial geral’ – mas, mais ainda, vislumbres por meio de sondas e, às vezes, resultados surpreendentemente poderosos”.

O GPT-4 está longe de fazer tudo o que o cérebro humano pode fazer.

Em uma mensagem enviada aos funcionários da OpenAI na tarde de sexta-feira que foi vista pelo The Times, o diretor de estratégia da OpenAI, Jason Kwon, disse explicitamente que o GPT-4 não era AGI

“É capaz de resolver pequenas tarefas em muitos empregos, mas a proporção entre o trabalho realizado por um ser humano e o trabalho realizado pelo GPT-4 na economia permanece surpreendentemente alta”, escreveu ele. “É importante ressaltar que um AGI será um sistema altamente autônomo, capaz o suficiente para conceber novas soluções para desafios de longa data – o GPT-4 não pode fazer isso.”

Ainda assim, o artigo alimentou afirmações de alguns investigadores e especialistas de que o GPT-4 representava um passo significativo em direcção à AGI e que empresas como a Microsoft e a OpenAI continuariam a melhorar as capacidades de raciocínio da tecnologia.

O campo da IA ​​ainda está muito dividido sobre o quão inteligente a tecnologia é hoje ou será em breve. Se Musk conseguir o que quer, um júri poderá resolver a discussão.

Source link

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *