Fri. Oct 18th, 2024

Quando a Meta compartilhou o código de computador bruto necessário para construir um chatbot no ano passado, empresas rivais disseram que a Meta estava lançando no mundo tecnologia pouco compreendida e talvez até perigosa.

Agora, numa indicação de que os críticos da partilha de tecnologia de IA estão a perder terreno para os seus pares da indústria, a Google está a tomar uma medida semelhante. O Google divulgou na quarta-feira o código de computador que alimenta seu chatbot online, depois de manter esse tipo de tecnologia oculta por muitos meses.

Assim como o Meta, o Google disse que os benefícios de compartilhar livremente a tecnologia – chamada de grande modelo de linguagem – superam os riscos potenciais.

A empresa disse em um blog que estava lançando dois modelos de linguagem de IA que poderiam ajudar empresas externas e desenvolvedores de software independentes a construir chatbots online semelhantes ao chatbot do próprio Google. Chamadas Gemma 2B e Gemma 7B, não são as tecnologias de IA mais poderosas do Google, mas a empresa argumentou que rivalizam com muitos dos sistemas líderes do setor.

“Esperamos envolver novamente a comunidade de desenvolvedores terceirizados e garantir que” os modelos baseados no Google se tornem um padrão da indústria para a forma como a IA moderna é construída, disse Tris Warkentin, diretor de gerenciamento de produtos do Google DeepMind, em uma entrevista. .

O Google disse que não tem planos atuais de lançar seu principal modelo de IA, o Gemini, gratuitamente. Por ser mais eficaz, o Gemini também pode causar mais danos.

Este mês, o Google começou a cobrar pelo acesso à versão mais poderosa do Gemini. Ao oferecer o modelo como um serviço online, a empresa pode controlar a tecnologia de forma mais rígida.

Preocupadas com a possibilidade de as tecnologias de IA serem utilizadas para espalhar desinformação, discurso de ódio e outros conteúdos tóxicos, algumas empresas, como a OpenAI, criadora do chatbot online ChatGPT, tornaram-se cada vez mais secretas sobre os métodos e software que sustentam os seus produtos.

Mas outros, como a Meta e a start-up francesa Mistral, argumentaram que a partilha livre de código – chamada open source – é a abordagem mais segura porque permite que terceiros identifiquem problemas com a tecnologia e sugiram soluções.

Yann LeCun, cientista-chefe de IA da Meta, argumentou que os consumidores e os governos se recusarão a adotar a IA, a menos que ela esteja fora do controle de empresas como Google, Microsoft e Meta.

“Você quer que todos os sistemas de IA estejam sob o controle de algumas empresas americanas poderosas?” ele disse ao The New York Times no ano passado.

No passado, o Google abriu o código-fonte de muitas de suas principais tecnologias de IA, incluindo a tecnologia fundamental para chatbots de IA. Mas sob a pressão competitiva da OpenAI, tornou-se mais secreto sobre como eles foram construídos.

A empresa decidiu disponibilizar sua IA de forma mais gratuita novamente devido ao interesse dos desenvolvedores, disse Jeanine Banks, vice-presidente de relações com desenvolvedores do Google, em uma entrevista.

Ao preparar-se para lançar as suas tecnologias Gemma, a empresa disse que tinha trabalhado para garantir que eram seguras e que a sua utilização para espalhar desinformação e outros materiais prejudiciais violava a sua licença de software.

“Temos certeza de que estamos lançando abordagens completamente seguras tanto na esfera proprietária quanto na esfera aberta, tanto quanto possível”, disse Warkentin. “Com o lançamento desses modelos 2B e 7B, estamos relativamente confiantes de que adotamos uma abordagem extremamente segura e responsável para garantir que eles possam ter um bom desempenho na indústria.”

Mas os malfeitores ainda podem usar essas tecnologias para causar problemas.

O Google está permitindo que as pessoas baixem sistemas que foram treinados em enormes quantidades de texto digital extraído da Internet. Os pesquisadores chamam isso de “liberação dos pesos”, referindo-se aos valores matemáticos específicos aprendidos pelo sistema à medida que analisa os dados.

A análise de todos esses dados normalmente requer centenas de chips de computador especializados e dezenas de milhões de dólares. Esses são recursos que a maioria das organizações – e muito menos os indivíduos – não possui.

Source link

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *