Sun. Sep 22nd, 2024

O presidente Biden emitirá uma ordem executiva na segunda-feira descrevendo as primeiras regulamentações do governo federal sobre sistemas de inteligência artificial. Incluem requisitos para que os produtos de IA mais avançados sejam testados para garantir que não possam ser utilizados para produzir armas biológicas ou nucleares, sendo as conclusões desses testes comunicadas ao governo federal.

Os requisitos de teste são uma parte pequena, mas central, do que Biden, em um discurso agendado para segunda-feira à tarde, deverá descrever como a ação governamental mais abrangente para proteger os americanos dos riscos potenciais trazidos pelos enormes saltos na IA ​​no passado. muitos anos.

Os regulamentos incluirão recomendações, mas não requisitos, para que fotos, vídeos e áudio desenvolvidos por tais sistemas tenham marcas d’água para deixar claro que foram criados por IA. Isso reflete um medo crescente de que a IA torne muito mais fácil a criação de “falsificações profundas” e desinformação convincente, especialmente à medida que a campanha presidencial de 2024 se acelera.

Os Estados Unidos restringiram recentemente a exportação de chips de alto desempenho para a China para abrandar a sua capacidade de produzir os chamados grandes modelos de linguagem, a acumulação de dados que tornou programas como o ChatGPT tão eficazes na resposta a perguntas e na aceleração de tarefas. Da mesma forma, os novos regulamentos exigirão que as empresas que gerem serviços em nuvem informem o governo sobre os seus clientes estrangeiros.

A ordem de Biden será emitida dias antes de uma reunião de líderes mundiais sobre segurança de IA organizada pelo primeiro-ministro britânico, Rishi Sunak. Na questão da regulamentação da IA, os Estados Unidos seguiram a União Europeia, que tem elaborado novas leis, e outras nações, como a China e Israel, que emitiram propostas de regulamentação. Desde que a popularidade do ChatGPT, o chatbot alimentado por IA, explodiu no ano passado, os legisladores e reguladores globais têm-se debatido sobre a forma como a inteligência artificial pode alterar empregos, espalhar desinformação e potencialmente desenvolver o seu próprio tipo de inteligência.

“O presidente Biden está implementando o conjunto de ações mais forte que qualquer governo do mundo já tomou em relação à segurança, proteção e confiança da IA”, disse Bruce Reed, vice-chefe de gabinete da Casa Branca. “É o próximo passo numa estratégia agressiva para fazer tudo em todas as frentes para aproveitar os benefícios da IA ​​e mitigar os riscos.”

As novas regras dos EUA, algumas das quais deverão entrar em vigor nos próximos 90 dias, deverão enfrentar muitos desafios, alguns legais e outros políticos. Mas a ordem visa os sistemas futuros mais avançados e, em grande parte, não aborda as ameaças imediatas dos chatbots existentes que poderiam ser usados ​​para espalhar desinformação relacionada com a Ucrânia, Gaza ou a campanha presidencial.

A administração não divulgou o texto da ordem executiva no domingo, mas as autoridades disseram que algumas das etapas da ordem exigiriam a aprovação de agências independentes, como a Comissão Federal de Comércio.

A ordem afecta apenas as empresas americanas, mas como o desenvolvimento de software acontece em todo o mundo, os Estados Unidos enfrentarão desafios diplomáticos para fazer cumprir os regulamentos, razão pela qual a administração está a tentar encorajar aliados e adversários a desenvolver regras semelhantes. A vice-presidente Kamala Harris representa os Estados Unidos na conferência em Londres sobre o tema esta semana.

Os regulamentos também pretendem influenciar o setor tecnológico, estabelecendo padrões iniciais de segurança, proteção e proteção ao consumidor. Ao utilizar o poder dos seus recursos financeiros, as directivas da Casa Branca às agências federais visam forçar as empresas a cumprir os padrões estabelecidos pelos seus clientes governamentais.

“Este é um primeiro passo importante e, mais importante ainda, as ordens executivas estabelecem normas”, disse Lauren Kahn, analista de pesquisa sênior do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

A ordem instrui o Departamento de Saúde e Serviços Humanos e outras agências a criar padrões de segurança claros para o uso de IA e a simplificar os sistemas para facilitar a aquisição de ferramentas de IA. Ordena ao Departamento do Trabalho e ao Conselho Económico Nacional que estudem o efeito da IA ​​no mercado de trabalho e elaborem potenciais regulamentações. E apela às agências para que forneçam orientações claras aos proprietários, empreiteiros governamentais e programas de benefícios federais para evitar a discriminação de algoritmos utilizados em ferramentas de IA.

Mas a Casa Branca tem autoridade limitada e algumas das directivas não são aplicáveis. Por exemplo, o despacho apela às agências para reforçarem as directrizes internas para proteger os dados pessoais dos consumidores, mas a Casa Branca também reconheceu a necessidade de legislação sobre privacidade para garantir plenamente a protecção de dados.

Para encorajar a inovação e reforçar a concorrência, a Casa Branca solicitará que a FTC intensifique o seu papel como vigilante da protecção do consumidor e das violações antitrust. Mas a Casa Branca não tem autoridade para instruir a FTC, uma agência independente, a criar regulamentos.

Lina Khan, presidente da comissão comercial, já sinalizou a sua intenção de agir de forma mais agressiva como vigilante da IA. Em julho, a comissão abriu uma investigação sobre a OpenAI, criadora do ChatGPT, sobre possíveis violações da privacidade do consumidor e acusações de divulgação de informações falsas sobre indivíduos.

“Embora essas ferramentas sejam novas, elas não estão isentas das regras existentes, e a FTC aplicará vigorosamente as leis que somos encarregados de administrar, mesmo neste novo mercado”, escreveu a Sra. Khan em um ensaio convidado no The New York Times em Poderia.

A indústria tecnológica afirmou que apoia as regulamentações, embora as empresas discordem quanto ao nível de supervisão governamental. Microsoft, OpenAI, Google e Meta estão entre as 15 empresas que concordaram com compromissos voluntários de segurança e proteção, incluindo a solicitação de terceiros para testarem seus sistemas em busca de vulnerabilidades.

Biden apelou a regulamentações que apoiem as oportunidades da IA ​​para ajudar na investigação médica e climática, ao mesmo tempo que criam barreiras de protecção para proteger contra abusos. Ele enfatizou a necessidade de equilibrar as regulamentações com o apoio às empresas dos EUA numa corrida global pela liderança em IA. E para esse fim, a ordem orienta as agências a agilizar o processo de visto para imigrantes e não-imigrantes altamente qualificados com experiência em IA para estudar e trabalhar nos Estados Unidos.

Os regulamentos centrais para proteger a segurança nacional serão descritos num documento separado, denominado Memorando de Segurança Nacional, a ser produzido no próximo verão. Algumas dessas regulamentações serão públicas, mas espera-se que muitas permaneçam confidenciais – especialmente aquelas relativas a medidas para impedir que nações estrangeiras, ou intervenientes não estatais, explorem sistemas de IA.

Um alto funcionário do Departamento de Energia disse na semana passada que a Administração Nacional de Segurança Nuclear já tinha começado a explorar como estes sistemas poderiam acelerar a proliferação nuclear, resolvendo questões complexas na construção de uma arma nuclear. E muitos responsáveis ​​concentraram-se na forma como estes sistemas poderiam permitir a um grupo terrorista reunir o que é necessário para produzir armas biológicas.

Ainda assim, legisladores e funcionários da Casa Branca alertaram contra agir demasiado rapidamente para redigir leis para tecnologias de IA que estão a mudar rapidamente. A UE não considerou grandes modelos linguísticos nos seus primeiros projetos legislativos.

“Se você agir rápido demais nisso, poderá estragar tudo”, disse o senador Chuck Schumer, democrata de Nova York e líder da maioria, na semana passada.

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *