Sun. Sep 29th, 2024


Sete empresas líderes de IA nos Estados Unidos concordaram com salvaguardas voluntárias no desenvolvimento da tecnologia, anunciou a Casa Branca na sexta-feira, prometendo lutar pela segurança, proteção e confiança, mesmo quando competem pelo potencial da inteligência artificial.

As sete empresas – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – anunciarão formalmente seu compromisso com os novos padrões em uma reunião com o presidente Biden na Casa Branca na tarde de sexta-feira.

O anúncio ocorre quando as empresas estão correndo para superar umas às outras com versões de IA que oferecem novas ferramentas poderosas para criar texto, fotos, música e vídeo sem intervenção humana. Mas os saltos tecnológicos geraram temores de que as ferramentas facilitem a disseminação da desinformação e alertas terríveis de um “risco de extinção” à medida que os computadores autoconscientes evoluem.

Na quarta-feira, a Meta, empresa controladora do Facebook, anunciou sua própria ferramenta de IA chamada Llama 2 e disse que divulgaria o código subjacente ao público. Nick Clegg, presidente de assuntos globais da Meta, disse em um comunicado que sua empresa apóia as salvaguardas desenvolvidas pela Casa Branca.

“Temos o prazer de assumir esses compromissos voluntários ao lado de outros no setor”, disse o Sr. Clegg. “Eles são um primeiro passo importante para garantir o estabelecimento de proteções responsáveis ​​para a IA e criam um modelo para outros governos seguirem.”

As salvaguardas voluntárias anunciadas na sexta-feira são apenas um passo inicial, à medida que Washington e governos de todo o mundo implementam estruturas legais e regulatórias para o desenvolvimento da inteligência artificial. Funcionários da Casa Branca disseram que o governo estava trabalhando em uma ordem executiva que iria além do anúncio de sexta-feira e apoiaria o desenvolvimento de uma legislação bipartidária.

“As empresas que estão desenvolvendo essas tecnologias emergentes têm a responsabilidade de garantir que seus produtos sejam seguros”, afirmou o governo em comunicado anunciando os acordos. A declaração disse que as empresas devem “manter os mais altos padrões para garantir que a inovação não ocorra às custas dos direitos e da segurança dos americanos”.

Como parte do acordo, as empresas concordaram em:

  • Testes de segurança de seus produtos de IA, em parte por especialistas independentes e para compartilhar informações sobre seus produtos com governos e outros que estão tentando gerenciar os riscos da tecnologia.

  • Garantir que os consumidores possam identificar o material gerado pela IA implementando marcas d’água ou outros meios de identificação do conteúdo gerado.

  • Relatar publicamente as capacidades e limitações de seus sistemas regularmente, incluindo riscos de segurança e evidências de viés.

  • Implantando ferramentas avançadas de inteligência artificial para enfrentar os maiores desafios da sociedade, como a cura do câncer e o combate às mudanças climáticas.

  • Realização de pesquisas sobre os riscos de preconceito, discriminação e invasão de privacidade decorrentes da disseminação de ferramentas de IA.

“O histórico da IA ​​mostra a insidiosidade e a prevalência desses perigos, e as empresas se comprometem a lançar uma IA que os mitigue”, disse o comunicado do governo Biden na sexta-feira antes da reunião.

É improvável que o acordo diminua os esforços para aprovar legislação e impor regulamentação sobre a tecnologia emergente. Os legisladores em Washington estão correndo para acompanhar os rápidos avanços da inteligência artificial. E outros governos estão fazendo o mesmo.

No mês passado, a União Européia agiu rapidamente em consideração aos esforços de maior alcance para regulamentar a tecnologia. A legislação proposta pelo Parlamento Europeu colocaria limites estritos a alguns usos da IA, inclusive para reconhecimento facial, e exigiria que as empresas divulgassem mais dados sobre seus produtos.

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *