[ad_1]
A Microsoft endossou uma série de regulamentações para inteligência artificial na quinta-feira, enquanto a empresa lida com as preocupações de governos de todo o mundo sobre os riscos da tecnologia em rápida evolução.
A Microsoft, que prometeu incorporar inteligência artificial em muitos de seus produtos, propôs regulamentos, incluindo a exigência de que os sistemas usados em infraestrutura crítica possam ser totalmente desligados ou desacelerados, semelhante a um sistema de frenagem de emergência em um trem. A empresa também pediu leis para esclarecer quando obrigações legais adicionais se aplicam a um sistema de IA e rótulos que deixem claro quando uma imagem ou vídeo foi produzido por um computador.
“As empresas precisam intensificar”, disse Brad Smith, presidente da Microsoft, em uma entrevista sobre a pressão por regulamentações. “O governo precisa agir mais rápido.”
O pedido de regulamentação pontua um boom na IA, com o lançamento do chatbot ChatGPT em novembro, gerando uma onda de interesse. Desde então, empresas como a Microsoft e a Alphabet, controladora do Google, correram para incorporar a tecnologia em seus produtos. Isso alimentou a preocupação de que as empresas estejam sacrificando a segurança para alcançar o próximo grande sucesso antes de seus concorrentes.
Os legisladores expressaram publicamente preocupações de que tais produtos de IA, que podem gerar texto e imagens por conta própria, criem uma enxurrada de desinformação, sejam usados por criminosos e deixem as pessoas desempregadas. Os reguladores em Washington se comprometeram a ficar atentos aos golpistas que usam IA e aos casos em que os sistemas perpetuam a discriminação ou tomam decisões que violam a lei.
Em resposta a esse escrutínio, os desenvolvedores de IA têm cada vez mais solicitado a transferência de parte da responsabilidade de policiar a tecnologia para o governo. Sam Altman, presidente-executivo da OpenAI, que fabrica o ChatGPT e conta com a Microsoft como investidora, disse a um subcomitê do Senado neste mês que o governo deve regulamentar a tecnologia.
A manobra ecoa pedidos por novas leis de privacidade ou mídia social por parte de empresas de internet como Google e Meta, controladora do Facebook. Nos Estados Unidos, os legisladores agiram lentamente após tais ligações, com poucas novas regras federais sobre privacidade ou mídia social nos últimos anos.
Na entrevista, Smith disse que a Microsoft não estava tentando se livrar da responsabilidade pelo gerenciamento da nova tecnologia, porque estava oferecendo ideias específicas e se comprometendo a realizar algumas delas, independentemente de o governo agir ou não.
“Não há um pingo de abdicação de responsabilidade”, disse ele.
Ele endossou a ideia, apoiada por Altman durante seu depoimento no Congresso, de que uma agência governamental deveria exigir que as empresas obtivessem licenças para implantar modelos de IA “altamente capazes”.
“Isso significa que você notifica o governo quando começa a testar”, disse Smith. “É preciso compartilhar os resultados com o governo. Mesmo quando está licenciado para implantação, você tem o dever de continuar a monitorá-lo e reportar ao governo se surgirem problemas inesperados.”
A Microsoft, que faturou mais de US$ 22 bilhões com seus negócios de computação em nuvem no primeiro trimestre, também disse que esses sistemas de alto risco deveriam ter permissão para operar apenas em “data centers de IA licenciados”. Smith reconheceu que a empresa não estaria “mal posicionada” para oferecer tais serviços, mas disse que muitos concorrentes americanos também poderiam fornecê-los.
A Microsoft acrescentou que os governos devem designar certos sistemas de IA usados em infraestrutura crítica como “alto risco” e exigir que eles tenham um “freio de segurança”. Ele comparou esse recurso com “os engenheiros de sistemas de frenagem há muito incorporados a outras tecnologias, como elevadores, ônibus escolares e trens de alta velocidade”.
Em alguns casos delicados, disse a Microsoft, as empresas que fornecem sistemas de IA devem saber certas informações sobre seus clientes. Para proteger os consumidores de fraudes, o conteúdo criado pela IA deveria ter um rótulo especial, disse a empresa.
Smith disse que as empresas devem arcar com a “responsabilidade” legal por danos associados à IA. Em alguns casos, disse ele, a parte responsável pode ser o desenvolvedor de um aplicativo como o mecanismo de busca Bing da Microsoft, que usa a tecnologia de IA subjacente de outra pessoa. As empresas de nuvem podem ser responsáveis por cumprir os regulamentos de segurança e outras regras, acrescentou.
“Não temos necessariamente a melhor informação ou a melhor resposta, ou podemos não ser o orador mais confiável”, disse Smith. “Mas, você sabe, agora, especialmente em Washington DC, as pessoas estão procurando ideias.”
[ad_2]
THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS