Tue. Oct 8th, 2024

Quando o presidente Biden assinou sua abrangente ordem executiva sobre inteligência artificial na semana passada, ele brincou sobre a estranha experiência de assistir a uma “falsificação profunda” de si mesmo, dizendo: “Quando diabos eu disse isso?”

A anedota foi significativa, pois ligava a ordem executiva a um dano real da IA ​​que todos podem compreender – a personificação humana. Outro exemplo é o recente boom de imagens falsas de nudez que têm arruinado a vida de meninas do ensino médio. Estes episódios quotidianos sublinham uma verdade importante: o sucesso dos esforços do governo para regular a IA dependerá da sua capacidade de se manter concentrado em problemas concretos, como falsificações profundas, em vez de se deixar envolver por riscos hipotéticos, como a chegada dos nossos senhores robôs.

A ordem executiva de Biden supera até mesmo a dos europeus ao considerar quase todos os riscos potenciais que se possa imaginar, desde a fraude quotidiana até ao desenvolvimento de armas de destruição maciça. A ordem desenvolve padrões para segurança e confiabilidade da IA, estabelece um programa de segurança cibernética para desenvolver ferramentas de IA e exige que as empresas que desenvolvem sistemas de IA que possam representar uma ameaça à segurança nacional compartilhem os resultados dos seus testes de segurança com o governo federal.

Ao dedicar tanto esforço à questão da IA, a Casa Branca está justamente determinada a evitar o fracasso desastroso na regulação significativa das redes sociais na década de 2010. Com o governo à margem, a tecnologia das redes sociais evoluiu de uma ferramenta aparentemente inocente de partilha de actualizações pessoais entre amigos para uma manipulação psicológica em grande escala, completada com um modelo de negócio que invadiu a privacidade e um registo perturbador de danos a adolescentes, fomentando a desinformação e facilitando a difusão da propaganda.

Mas se as redes sociais eram um lobo em pele de cordeiro, a inteligência artificial é mais parecida com um lobo vestido de cavaleiro do apocalipse. Na imaginação do público, a IA está associada ao mau funcionamento do HAL 9000 em “2001: Uma Odisseia no Espaço” de Stanley Kubrick e à vilania autoconsciente da Skynet nos filmes “O Exterminador do Futuro”. Mas embora a IA coloque certamente problemas e desafios que exigem uma acção governamental, as preocupações apocalípticas – sejam elas o desemprego em massa devido à automação ou uma IA superinteligente que procura exterminar a humanidade – permanecem no domínio da especulação.

Se fazer muito pouco e demasiado tarde com as redes sociais foi um erro, precisamos agora de ter cuidado para não tomarmos medidas governamentais prematuras que não consigam resolver os danos concretos.

A tentação de reagir de forma exagerada é compreensível. Ninguém quer ser o funcionário governamental sem noção no filme-catástrofe que ignora alegremente os primeiros sinais de um cataclismo iminente. A Casa Branca não está errada ao querer testes padronizados de IA e supervisão independente de riscos catastróficos. A ordem executiva exige que as empresas que desenvolvam os sistemas de IA mais poderosos mantenham o governo informado sobre os testes de segurança e também que o secretário do Trabalho estude os riscos e as soluções para o deslocamento de empregos de IA.

Mas a verdade é que ninguém sabe se algum destes desenvolvimentos devastadores se concretizará. As previsões tecnológicas não são como as da ciência climática, com um número relativamente limitado de parâmetros. A história da tecnologia está repleta de projeções confiantes e “inevitabilidades” que nunca aconteceram, desde as semanas de trabalho de 30 e 15 horas até o fim da televisão. Testemunhar em tom grave sobre possibilidades terríveis contribui para uma boa televisão. Mas foi também assim que o mundo acabou gastando centenas de bilhões de dólares se preparando para o Y2K.

Regular os riscos especulativos, em vez dos danos reais, seria imprudente, por duas razões. Em primeiro lugar, os reguladores excessivamente ansiosos podem fixar-se míope no alvo errado da regulação. Por exemplo, para enfrentar os perigos da pirataria digital, em 1992, o Congresso regulamentou extensivamente a fita de áudio digital, um formato de gravação agora lembrado apenas pelos nerds do áudio, graças à subsequente ascensão da Internet e dos MP3. Da mesma forma, os decisores políticos de hoje estão preocupados com grandes modelos linguísticos como o ChatGPT, que podem ser o futuro de tudo — ou, dada a sua grande falta de fiabilidade decorrente da falsificação e fabricação crónicas, podem acabar lembrados como o bambolê da era da IA.

Em segundo lugar, a regulamentação preventiva pode criar barreiras à entrada de empresas interessadas em entrar numa indústria. Os intervenientes estabelecidos, com milhões de dólares para gastar em advogados e especialistas, podem encontrar formas de cumprir um conjunto complexo de novos regulamentos, mas as pequenas empresas em fase de arranque normalmente não têm os mesmos recursos. Isto promove a monopolização e desencoraja a inovação. A indústria de tecnologia já é domínio demais de um punhado de grandes empresas. A regulamentação mais rigorosa da IA ​​resultaria em ter apenas empresas como Google, Microsoft, Apple e os seus parceiros mais próximos a competir nesta área. Pode não ser uma coincidência que essas empresas e os seus parceiros tenham sido os mais fortes defensores da regulamentação da IA.

O dano real, e não o risco imaginado, é um guia muito melhor sobre como e quando o Estado deve intervir. Os danos mais evidentes da IA ​​são os relacionados com a representação humana (como os nus falsos), a discriminação e o vício dos jovens. Em 2020, ladrões usaram uma voz humana personificada para roubar US$ 35 milhões de uma empresa japonesa em Hong Kong. A tecnologia de reconhecimento facial levou a detenções e encarceramentos injustos, como no caso de Nijeer Parks, que passou 10 dias numa prisão de Nova Jersey porque foi identificado incorretamente. Avaliações falsas de consumidores corroeram a confiança do consumidor e as contas falsas nas redes sociais geram propaganda. Algoritmos alimentados por IA são usados ​​para aprimorar as propriedades já formadoras de hábitos das mídias sociais.

Estes exemplos não são tão assustadores como o alerta emitido este ano pelo Centro para a Segurança da IA, que insistiu que “mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos à escala social, como pandemias e armas nucleares”. guerra.” Mas os exemplos menos emocionantes apresentam vítimas reais.

Para seu crédito, a ordem executiva de Biden não está excessivamente presa ao hipotético: a maior parte do que ela sugere é uma estrutura para ações futuras. Algumas de suas recomendações são urgentes e importantes, como a criação de padrões para marca d’água de fotos, vídeos, áudio e texto criados com IA

Mas o poder executivo, é claro, tem poderes limitados. O Congresso deveria seguir o exemplo do poder executivo e ficar de olho em problemas hipotéticos enquanto se move de forma decisiva para nos proteger contra a personificação humana, a manipulação algorítmica, a desinformação e outros problemas prementes da IA ​​– para não mencionar a aprovação das leis de privacidade online e proteção infantil que apesar das repetidas audiências no Congresso e do apoio popular, continua a não ser aprovada.

A regulação, ao contrário do que se ouve nos debates políticos estilizados, não está intrinsecamente alinhada com um ou outro partido político. É simplesmente o exercício do poder estatal, que pode ser bom ou mau, usado para proteger os vulneráveis ​​ou reforçar o poder existente. Aplicada à IA, com vista ao futuro desconhecido, a regulação pode ser usada para ajudar os poderosos, ajudando a preservar os monopólios e a sobrecarregar aqueles que se esforçam por utilizar a tecnologia informática para melhorar a condição humana. Feito corretamente, tendo em vista o presente, poderá proteger os vulneráveis ​​e promover uma inovação mais ampla e salutar.

A existência de danos sociais reais tem sido há muito tempo uma pedra de toque da acção legítima do Estado. Mas este ponto serve para ambos os lados: o Estado deve proceder com cautela na ausência de danos, mas também é seu dever, dada a evidência de danos, agir. Por essa medida, com a IA corremos o risco de fazer muito e pouco ao mesmo tempo.

Equipe Wu (@superwuster) é professor de direito na Columbia e autor, mais recentemente, de “The Curse of Bigness: Antitrust in the New Gilded Age”.

Fotografias originais de plepann e bebecom98/Getty Images.

O Times está comprometido em publicar uma diversidade de letras para o editor. Gostaríamos de saber o que você pensa sobre este ou qualquer um de nossos artigos. Aqui estão alguns pontas. E aqui está nosso e-mail: [email protected].

Siga a seção de opinião do The New York Times sobre Facebook, Twitter (@NYTopinion) e Instagram.

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *