Sat. Oct 12th, 2024

No ano passado, Sam Altman conduziu a OpenAI à mesa dos adultos da indústria de tecnologia. Graças ao seu chatbot imensamente popular ChatGPT, a start-up de São Francisco estava no centro de um boom de inteligência artificial, e Altman, presidente-executivo da OpenAI, tornou-se uma das pessoas mais reconhecidas na tecnologia.

Mas esse sucesso aumentou as tensões dentro da empresa. Ilya Sutskever, um respeitado pesquisador de IA que co-fundou a OpenAI com Altman e outras nove pessoas, estava cada vez mais preocupado que a tecnologia da OpenAI pudesse ser perigosa e que Altman não estivesse prestando atenção suficiente a esse risco, de acordo com três pessoas familiarizadas com seu pensamento. Sutskever, membro do conselho de administração da empresa, também se opôs ao que considerou uma diminuição do seu papel dentro da empresa, segundo duas pessoas.

Esse conflito entre o crescimento rápido e a segurança da IA ​​entrou em foco na tarde de sexta-feira, quando Altman foi afastado do cargo por quatro dos seis membros do conselho da OpenAI, liderados por Sutskever. A medida chocou os funcionários da OpenAI e o resto da indústria de tecnologia, incluindo a Microsoft, que investiu US$ 13 bilhões na empresa. Alguns membros do setor diziam que a divisão era tão significativa quanto quando Steve Jobs foi forçado a deixar a Apple em 1985.

A demissão de Altman, 38 anos, chamou a atenção para uma divergência de longa data na comunidade de IA entre pessoas que acreditam que a IA é a maior oportunidade de negócios em uma geração e outras que temem que avançar rápido demais possa ser perigoso. E a destituição mostrou como um movimento filosófico dedicado ao medo da IA ​​se tornou uma parte inevitável da cultura tecnológica.

Desde que o ChatGPT foi lançado, há quase um ano, a inteligência artificial capturou a imaginação do público, com a esperança de que pudesse ser usada para trabalhos importantes, como pesquisa de drogas ou para ajudar a ensinar crianças. Mas alguns cientistas e líderes políticos da IA ​​preocupam-se com os seus riscos, como a extinção da automatização de empregos ou a guerra autónoma que ultrapassa o controlo humano.

O receio de que os investigadores de IA estivessem a construir algo perigoso tem sido uma parte fundamental da cultura da OpenAI. Seus fundadores acreditavam que, por compreenderem esses riscos, eram as pessoas certas para construí-lo.

O conselho da OpenAI não ofereceu uma razão específica pela qual expulsou Atman, a não ser para dizer em uma postagem no blog que não acreditava que ele estivesse se comunicando honestamente com eles. Os funcionários da OpenAI foram informados na manhã de sábado que sua remoção não tinha nada a ver com “prevaricação ou qualquer coisa relacionada às nossas práticas financeiras, comerciais, de segurança ou de proteção/privacidade”, de acordo com uma mensagem vista pelo The New York Times.

Greg Brockman, outro cofundador e presidente da empresa, renunciou em protesto na noite de sexta-feira. O mesmo fez o diretor de pesquisa da OpenAI. Na manhã de sábado, a empresa estava um caos, de acordo com meia dúzia de funcionários atuais e antigos, e os seus cerca de 700 funcionários lutavam para entender por que o conselho a fez mudar.

“Tenho certeza de que todos vocês estão sentindo confusão, tristeza e talvez algum medo”, disse Brad Lightcap, diretor de operações da OpenAI, em um memorando aos funcionários da OpenAI. “Estamos totalmente focados em lidar com isso, buscando resolução e clareza e voltando ao trabalho.”

Altman foi convidado a participar de uma reunião do conselho por vídeo ao meio-dia em São Francisco na sexta-feira. Lá, Sutskever, 37 anos, leu um roteiro que lembrava muito a postagem no blog que a empresa publicou minutos depois, segundo uma pessoa familiarizada com o assunto. A postagem dizia que o Sr. Altman “não era consistentemente sincero em suas comunicações com o conselho, dificultando sua capacidade de exercer suas responsabilidades”.

Mas nas horas que se seguiram, os funcionários da OpenAI e outros concentraram-se não apenas no que o Sr. Altman pode ter feito, mas na forma como a start-up de São Francisco está estruturada e nas visões extremas sobre os perigos da IA ​​incorporada no trabalho da empresa desde então. foi criado em 2015.

Sutskever e Altman não foram encontrados para comentar o assunto no sábado.

Nas últimas semanas, Jakob Pachocki, que ajudou a supervisionar o GPT-4, a tecnologia central do ChatGPT, foi promovido a diretor de pesquisa da empresa. Depois de ocupar anteriormente uma posição abaixo de Sutskever, ele foi elevado a uma posição ao lado de Sutskever, de acordo com duas pessoas familiarizadas com o assunto.

Pachocki deixou a empresa na noite de sexta-feira, disseram as pessoas, logo depois de Brockman. No início do dia, a OpenAI disse que Brockman havia sido destituído do cargo de presidente do conselho e se reportaria ao novo executivo-chefe interino, Mira Murati. Outros aliados de Altman – incluindo dois pesquisadores seniores, Szymon Sidor e Aleksander Madry – também deixaram a empresa.

Sr. Brockman disse em um postar no X, antigo Twitter, que embora fosse o presidente do conselho, ele não participou da reunião do conselho em que Altman foi destituído. Restaram Sutskever e três outros membros do conselho: Adam D’Angelo, executivo-chefe do site de perguntas e respostas Quora; Tasha McCauley, cientista adjunta de gestão sênior da RAND Corporation; e Helen Toner, diretora de estratégia e bolsas de pesquisa fundamental do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

Eles não foram encontrados para comentar o assunto no sábado.

Toner têm ligações com os movimentos Racionalista e Altruísta Eficaz, uma comunidade que está profundamente preocupada com a possibilidade de a IA um dia destruir a humanidade. A tecnologia de IA atual não pode destruir a humanidade. Mas esta comunidade acredita que à medida que a tecnologia se torna cada vez mais poderosa, estes perigos irão surgir.

Em 2021, um pesquisador chamado Dario Amodei, que também tem vínculos com essa comunidade, e cerca de outros 15 funcionários da OpenAI deixaram a empresa para formar uma nova empresa de IA chamada Anthropic.

Sutskever estava cada vez mais alinhado com essas crenças. Nascido na União Soviética, passou seus anos de formação em Israel e emigrou para o Canadá ainda adolescente. Enquanto estudante de graduação na Universidade de Toronto, ele ajudou a criar um avanço em uma tecnologia de IA chamada redes neurais.

Em 2015, Sutskever deixou o emprego no Google e ajudou a fundar a OpenAI ao lado de Altman, Brockman e do presidente-executivo da Tesla, Elon Musk. Eles construíram o laboratório como uma organização sem fins lucrativos, dizendo que, ao contrário do Google e de outras empresas, não seria impulsionado por incentivos comerciais. Eles prometeram construir o que é chamado de inteligência artificial geral, ou AGI, uma máquina que pode fazer tudo o que o cérebro pode fazer.

Altman transformou a OpenAI em uma empresa com fins lucrativos em 2018 e negociou um investimento de US$ 1 bilhão da Microsoft. Essas enormes somas de dinheiro são essenciais para a construção de tecnologias como o GPT-4, lançado no início deste ano. Desde o seu investimento inicial, a Microsoft investiu outros 12 mil milhões de dólares na empresa.

A empresa ainda era governada pelo conselho da organização sem fins lucrativos. Investidores como a Microsoft recebem lucros da OpenAI, mas os seus lucros são limitados. Qualquer dinheiro acima do limite é canalizado de volta para a organização sem fins lucrativos.

Ao ver o poder do GPT-4, o Sr. Sutskever ajudou a criar uma nova equipe de Super Alignment dentro da empresa que exploraria maneiras de garantir que versões futuras da tecnologia não causassem danos.

Altman estava aberto a essas preocupações, mas também queria que a OpenAI permanecesse à frente de seus concorrentes muito maiores. No final de setembro, Altman voou para o Oriente Médio para uma reunião com investidores, segundo duas pessoas familiarizadas com o assunto. Ele buscou até US$ 1 bilhão em financiamento do SoftBank, o investidor japonês em tecnologia liderado por Masayoshi Son, para um potencial empreendimento OpenAI que construiria um dispositivo de hardware para executar tecnologias de IA como ChatGPT.

A OpenAI também está em negociações para um financiamento de “oferta pública” que permitiria aos funcionários sacar ações da empresa. Esse acordo avaliaria a OpenAI em mais de US$ 80 bilhões, quase o triplo de seu valor há seis meses.

Mas o sucesso da empresa parece ter apenas aumentado as preocupações de que algo pudesse dar errado com a IA

“Não parece nada implausível que teremos computadores – data centers – que serão muito mais inteligentes que as pessoas”, disse Sutskever em um podcast em 2 de novembro. “O que essas IAs fariam? Não sei.”

Kevin Roose e Tripp Mickle contribuíram com reportagens.

Source link

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *