[ad_1]
A regulamentação da inteligência artificial tem sido um tema quente em Washington nos últimos meses, com legisladores realizando audiências e coletivas de imprensa e a Casa Branca anunciando compromissos voluntários de segurança de IA por sete empresas de tecnologia na sexta-feira.
Mas um olhar mais atento à atividade levanta questões sobre o quão significativas são as ações na definição de políticas em torno da tecnologia em rápida evolução.
A resposta é que ainda não é muito significativo. Os Estados Unidos estão apenas no começo do que provavelmente será um caminho longo e difícil para a criação de regras de IA, disseram legisladores e especialistas em políticas. Embora tenha havido audiências, reuniões com altos executivos de tecnologia na Casa Branca e discursos para apresentar projetos de lei de IA, é muito cedo para prever até mesmo os esboços mais rudimentares de regulamentos para proteger os consumidores e conter os riscos que a tecnologia representa para empregos, disseminação de desinformação e segurança.
“Ainda é cedo e ninguém sabe como será uma lei ainda”, disse Chris Lewis, presidente do grupo de consumidores Public Knowledge, que pediu a criação de uma agência independente para regular a IA e outras empresas de tecnologia.
Os Estados Unidos continuam muito atrás da Europa, onde os legisladores estão se preparando para promulgar uma lei de IA ainda este ano que colocaria novas restrições sobre o que é visto como os usos mais arriscados da tecnologia. Por outro lado, ainda há muita discordância nos Estados Unidos sobre a melhor maneira de lidar com uma tecnologia que muitos legisladores americanos ainda estão tentando entender.
Isso é adequado para muitas das empresas de tecnologia, disseram especialistas em políticas. Embora algumas das empresas tenham dito que aceitam regras sobre IA, elas também argumentaram contra regulamentos rígidos semelhantes aos que estão sendo criados na Europa.
Aqui está um resumo sobre o estado dos regulamentos de IA nos Estados Unidos.
Na Casa Branca
O governo Biden está em uma turnê de escuta rápida com empresas de IA, acadêmicos e grupos da sociedade civil. O esforço começou em maio com a reunião da vice-presidente Kamala Harris na Casa Branca com os executivos-chefes da Microsoft, Google, OpenAI e Anthropic, onde ela pressionou a indústria de tecnologia a levar a segurança mais a sério.
Na sexta-feira, representantes de sete empresas de tecnologia compareceram à Casa Branca para anunciar um conjunto de princípios para tornar suas tecnologias de IA mais seguras, incluindo verificações de segurança de terceiros e marcas d’água de conteúdo gerado por IA para ajudar a conter a disseminação de desinformação.
Muitas das práticas anunciadas já estavam em vigor na OpenAI, Google e Microsoft, ou estavam a caminho de serem implementadas. Eles não são aplicáveis por lei. As promessas de autorregulação também ficaram aquém do que os grupos de consumidores esperavam.
“Compromissos voluntários não são suficientes quando se trata de Big Tech”, disse Caitriona Fitzgerald, vice-diretora do Electronic Privacy Information Center, um grupo de privacidade. “O Congresso e os reguladores federais devem implementar proteções significativas e executáveis para garantir que o uso da IA seja justo, transparente e proteja a privacidade e os direitos civis dos indivíduos”.
No outono passado, a Casa Branca apresentou um Projeto para uma Declaração de Direitos da IA, um conjunto de diretrizes sobre a proteção do consumidor com a tecnologia. As diretrizes também não são regulamentos e não são executáveis. Nesta semana, funcionários da Casa Branca disseram que estavam trabalhando em uma ordem executiva sobre IA, mas não revelaram detalhes e cronograma.
No Congresso
A maior discussão sobre a regulamentação da IA veio dos legisladores, alguns dos quais apresentaram projetos de lei sobre a tecnologia. Suas propostas incluem a criação de uma agência para supervisionar a IA, a responsabilidade por tecnologias de IA que espalham a desinformação e a exigência de licenciamento para novas ferramentas de IA.
Os legisladores também realizaram audiências sobre IA, incluindo uma audiência em maio com Sam Altman, presidente-executivo da OpenAI, que fabrica o chatbot ChatGPT. Alguns legisladores apresentaram ideias para outros regulamentos durante as audiências, incluindo rótulos nutricionais para notificar os consumidores sobre os riscos da IA.
Os projetos de lei estão em seus estágios iniciais e até agora não têm o apoio necessário para avançar. No mês passado, o líder do Senado, Chuck Schumer, democrata de Nova York, anunciou um processo de meses para a criação de uma legislação de IA que incluía sessões educacionais para os membros no outono.
“De muitas maneiras, estamos começando do zero, mas acredito que o Congresso está à altura do desafio”, disse ele durante um discurso na época no Centro de Estudos Estratégicos e Internacionais.
Em agências federais
As agências reguladoras estão começando a agir, policiando alguns problemas que emanam da IA
Na semana passada, a Federal Trade Commission abriu uma investigação sobre o ChatGPT da OpenAI, pediu informações sobre como a empresa protege seus sistemas e como o chatbot poderia prejudicar os consumidores por meio da criação de informações falsas. A presidente da FTC, Lina Khan, disse acreditar que a agência tem amplo poder sob as leis de proteção ao consumidor e concorrência para policiar o comportamento problemático das empresas de IA.
“Esperar que o Congresso aja não é o ideal, dado o cronograma usual da ação do Congresso”, disse Andres Sawicki, professor de direito da Universidade de Miami.
[ad_2]
THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS