Sun. Apr 14th, 2024

Seria fácil descartar o processo de Elon Musk contra a OpenAI como um caso de uvas verdes.

Musk processou a OpenAI esta semana, acusando a empresa de violar os termos de seu acordo de fundação e de violar seus princípios fundadores. Segundo ele, a OpenAI foi estabelecida como uma organização sem fins lucrativos que construiria poderosos sistemas de IA para o bem da humanidade e distribuiria suas pesquisas gratuitamente ao público. Mas Musk argumenta que a OpenAI quebrou essa promessa ao iniciar uma subsidiária com fins lucrativos que recebeu bilhões de dólares em investimentos da Microsoft.

Uma porta-voz da OpenAI se recusou a comentar o processo. Em um memorando enviado aos funcionários na sexta-feira, Jason Kwon, diretor de estratégia da empresa, negou as alegações de Musk e disse: “Acreditamos que as reivindicações neste processo podem resultar do arrependimento de Elon por não estar envolvido com a empresa hoje”, segundo. a uma cópia do memorando que vi.

Por um lado, o processo cheira a problemas pessoais. Musk, que fundou a OpenAI em 2015 junto com um grupo de outros pesos pesados ​​da tecnologia e forneceu grande parte de seu financiamento inicial, mas saiu em 2018 devido a disputas com a liderança, se ressente de ter sido marginalizado nas conversas sobre IA. tanta tração quanto o ChatGPT, o principal chatbot da OpenAI. E o desentendimento de Musk com Sam Altman, presidente-executivo da OpenAI, foi bem documentado.

Mas em meio a toda a animosidade, há um ponto que vale a pena destacar, porque ilustra um paradoxo que está no centro de grande parte da conversa atual sobre IA – e um lugar onde a OpenAI realmente tem falado pelos dois lados da boca, insistindo que os seus sistemas de IA são incrivelmente poderosos e que estão longe de se igualar à inteligência humana.

A afirmação centra-se num termo conhecido como AGI, ou “inteligência artificial geral”. Definir o que constitui AGI é notoriamente complicado, embora a maioria das pessoas concorde que isso significa um sistema de IA que pode fazer a maioria ou todas as coisas que o cérebro humano pode fazer. Altman definiu AGI como “o equivalente a um ser humano médio que você poderia contratar como colega de trabalho”, enquanto a própria OpenAI define AGI como “um sistema altamente autônomo que supera os humanos na maioria dos trabalhos economicamente valiosos”.

A maioria dos líderes de empresas de IA afirmam que a AGI não só é possível de construir, mas também que é iminente. Demis Hassabis, executivo-chefe do Google DeepMind, me disse em uma recente entrevista em podcast que achava que a AGI poderia chegar já em 2030. Altman disse que a AGI pode estar a apenas quatro ou cinco anos de distância.

Construir AGI é o objetivo explícito da OpenAI e há muitos motivos para querer chegar lá antes de qualquer outra pessoa. Uma verdadeira AGI seria um recurso incrivelmente valioso, capaz de automatizar grandes quantidades de trabalho humano e gerar muito dinheiro para seus criadores. É também o tipo de objetivo brilhante e audacioso que os investidores adoram financiar e que ajuda os laboratórios de IA a recrutar engenheiros e pesquisadores de ponta.

Mas a AGI também pode ser perigosa se for capaz de enganar os humanos ou se se tornar enganosa ou desalinhada com os valores humanos. As pessoas que iniciaram a OpenAI, incluindo Musk, temiam que uma AGI fosse poderosa demais para ser propriedade de uma única entidade e que, se chegassem perto de construir uma, precisariam mudar a estrutura de controle em torno dela. para evitar que cause danos ou concentre demasiada riqueza e poder nas mãos de uma única empresa.

É por isso que, quando a OpenAI firmou uma parceria com a Microsoft, concedeu especificamente à gigante da tecnologia uma licença que se aplicava apenas a tecnologias “pré-AGI”. (O New York Times processou a Microsoft e a OpenAI pelo uso de trabalhos protegidos por direitos autorais.)

De acordo com os termos do acordo, se a OpenAI algum dia construísse algo que atendesse à definição de AGI – conforme determinado pelo conselho sem fins lucrativos da OpenAI – a licença da Microsoft não seria mais aplicável, e o conselho da OpenAI poderia decidir fazer o que quisesse para garantir que o AGI da OpenAI se beneficiasse. toda a humanidade. Isso pode significar muitas coisas, incluindo abrir o código-fonte da tecnologia ou desligá-la totalmente.

A maioria dos comentaristas de IA acredita que os modelos de IA de ponta de hoje não se qualificam como AGI, porque carecem de habilidades de raciocínio sofisticadas e frequentemente cometem erros estúpidos.

Mas em seu processo judicial, Musk apresenta um argumento incomum. Ele argumenta que a OpenAI tem alcançou AGI com seu modelo de linguagem GPT-4, lançado no ano passado, e que a tecnologia futura da empresa se qualificará ainda mais claramente como AGI

“Com base na informação e na crença, GPT-4 é um algoritmo AGI e, portanto, expressamente fora do escopo da licença exclusiva da Microsoft de setembro de 2020 com OpenAI”, diz a reclamação.

O que Musk está argumentando aqui é um pouco complicado. Basicamente, ele está dizendo que, por ter alcançado AGI com GPT-4, a OpenAI não tem mais permissão para licenciá-lo para a Microsoft, e que seu conselho é obrigado a disponibilizar a tecnologia e a pesquisa de forma mais gratuita.

Sua reclamação cita o agora infame artigo “Sparks of AGI” de uma equipe de pesquisa da Microsoft no ano passado, que argumentou que o GPT-4 demonstrou indícios iniciais de inteligência geral, entre eles sinais de raciocínio em nível humano.

Mas a denúncia também observa que é improvável que o conselho da OpenAI decida que seus sistemas de IA na verdade qualificar-se como AGI, porque assim que o fizer, terá de fazer grandes mudanças na forma como implementa e lucra com a tecnologia.

Além disso, ele observa que a Microsoft – que agora tem um assento de observador sem direito a voto no conselho da OpenAI, após uma reviravolta no ano passado que resultou na demissão temporária de Altman – tem um forte incentivo para negar que a tecnologia da OpenAI se qualifique como AGI. licença para usar essa tecnologia em seus produtos e comprometer lucros potencialmente enormes.

“Dado o enorme interesse financeiro da Microsoft em manter o portão fechado ao público, o novo conselho capturado, conflitante e compatível da OpenAI, Inc. terá todos os motivos para adiar a descoberta de que a OpenAI atingiu AGI”, diz a reclamação. “Pelo contrário, a obtenção de AGI pela OpenAI, como ‘Tomorrow’ em ‘Annie’, estará sempre a um dia de distância.”

Dado o seu histórico de litígios questionáveis, é fácil questionar os motivos do Sr. Musk aqui. E como chefe de uma start-up concorrente de IA, não é surpreendente que ele queira envolver a OpenAI em litígios complicados. Mas seu processo aponta para um verdadeiro enigma para a OpenAI.

Tal como os seus concorrentes, a OpenAI deseja muito ser vista como líder na corrida para construir a AGI e tem todo o interesse em convencer os investidores, parceiros de negócios e o público de que os seus sistemas estão a melhorar a um ritmo vertiginoso.

Mas devido aos termos do seu acordo com a Microsoft, os investidores e executivos da OpenAI podem não querer admitir que a sua tecnologia realmente se qualifica como AGI, se e quando realmente o fizer.

Isso colocou Musk na estranha posição de pedir a um júri que decida sobre o que constitui AGI e decida se a tecnologia da OpenAI atingiu o limite.

O processo também colocou a OpenAI na estranha posição de minimizar as habilidades de seus próprios sistemas, ao mesmo tempo em que continua a alimentar a expectativa de que um grande avanço em AGI está chegando.

“GPT-4 não é um AGI”, escreveu Kwon, da OpenAI, no memorando aos funcionários na sexta-feira. “É capaz de resolver pequenas tarefas em muitos empregos, mas a proporção entre o trabalho realizado por um ser humano e o trabalho realizado pelo GPT-4 na economia permanece surpreendentemente alta.”

A disputa pessoal que alimentou a reclamação de Musk levou algumas pessoas a considerá-la um processo frívolo – um comentarista comparou-o a “processar sua ex porque ela remodelou a casa após o seu divórcio” – que será rapidamente rejeitado.

Mas mesmo que seja descartado, o processo movido por Musk aponta para questões importantes: quem decide quando algo se qualifica como AGI? As empresas de tecnologia estão exagerando ou sendo sábias (ou ambos), quando se trata de descrever a capacidade de seus sistemas? E que incentivos estão por trás de várias afirmações sobre quão próximos ou distantes da AGI podemos estar?

Uma ação judicial movida por um bilionário ressentido provavelmente não é a maneira certa de resolver essas questões. Mas é bom perguntar, especialmente à medida que o progresso da IA ​​continua a acelerar.

Source link

By NAIS

Leave a Reply

Your email address will not be published. Required fields are marked *