Fri. Apr 19th, 2024

Os alarmes estão soando sobre deepfakes de inteligência artificial que manipulam os eleitores, como a chamada automática que soa como o presidente Biden que foi para as famílias de New Hampshire, ou o vídeo falso de Taylor Swift endossando Donald Trump.

No entanto, na verdade, há um problema muito maior com os deepfakes ao qual não prestamos atenção suficiente: vídeos e fotos de nudez deepfake que humilham celebridades e crianças desconhecidas. Um estudo recente descobriu que 98% dos vídeos deepfake online eram pornográficos e que 99% dos alvos eram mulheres ou meninas.

Imagens falsas de Taylor Swift nuas abalaram a Internet em janeiro, mas isso vai muito além dela: as empresas ganham dinheiro com a venda de publicidade e assinaturas premium para sites que hospedam vídeos de sexo falsos de atrizes, cantoras, influenciadoras, princesas e políticas famosas. O Google direciona o tráfego para esses vídeos gráficos e as vítimas têm poucos recursos.

Às vezes as vítimas são meninas menores de idade.

Francesca Mani, uma estudante de 14 anos do segundo ano do ensino médio em Nova Jersey, me contou que estava na aula em outubro quando o alto-falante a chamou à secretaria da escola. Lá, o diretor assistente e um conselheiro lhe disseram que um ou mais colegas do sexo masculino usaram um programa de “nudificação” para tirar uma foto dela vestida e gerar uma imagem falsa de nudez. Os meninos também fizeram imagens nuas de várias outras meninas do segundo ano.

Lutando contra as lágrimas, sentindo-se violada e humilhada, Francesca cambaleou de volta para a aula. No corredor, disse ela, ela passou por outro grupo de meninas chorando pelo mesmo motivo – e por um grupo de meninos zombando delas.

“Quando vi os meninos rindo, fiquei muito brava”, disse Francesca. “Depois da escola, cheguei em casa e disse à minha mãe que precisávamos fazer algo a respeito.”

Agora com 15 anos, Francesca criou um site sobre o problema do deepfake – aiheeelp.com – e começou a se reunir com legisladores estaduais e membros do Congresso em um esforço para chamar a atenção para o problema.

Embora sempre tenham existido imagens adulteradas, a inteligência artificial torna o processo muito mais fácil. Com apenas uma boa imagem do rosto de uma pessoa, agora é possível, em apenas meia hora, fazer um vídeo de sexo de 60 segundos dessa pessoa. Esses vídeos podem então ser postados em sites pornográficos gerais para qualquer um ver, ou em sites especializados em deepfakes.

Os vídeos são gráficos e às vezes sádicos, retratando mulheres amarradas enquanto são estupradas ou urinam, por exemplo. Um site oferece categorias que incluem “estupro” (472 itens), “choro” (655) e “degradação” (822).

Além disso, existem sites e aplicativos de “nudificação” ou “despir” do tipo que tinha como alvo Francesca. “Tire a roupa com um clique!” alguém insiste. Estes visam esmagadoramente mulheres e raparigas; alguns nem sequer são capazes de gerar um homem nu. Um estudo britânico sobre imagens sexuais infantis produzidas por inteligência artificial revelou que 99,6% eram meninas, mais comumente entre 7 e 13 anos de idade.

Graphika, uma empresa de análise on-line, identificou 34 sites de nudificação que receberam um total combinado de 24 milhões de visitantes únicos somente em setembro.

Quando Francesca foi alvo, a sua família consultou a polícia e os advogados, mas não encontrou solução. “Não há ninguém a quem recorrer”, disse a mãe, Dorota Mani. “A polícia diz: ‘Desculpe, não podemos fazer nada’”.

O problema é que não existe uma lei que tenha sido claramente violada. “Continuamos incapazes de ter uma estrutura jurídica que seja ágil o suficiente para lidar com a tecnologia”, disse Yiota Souras, diretor jurídico do Centro Nacional para Crianças Desaparecidas e Exploradas.

Sophie Compton, documentarista, fez um filme sobre o tema, “Another Body”, e ficou tão chocada que lançou uma campanha e um site, MyImageMyChoice.org, para pressionar por mudanças.

“Tornou-se uma espécie de indústria maluca, completamente baseada na violação do consentimento”, disse Compton.

A impunidade reflete uma atitude blasé em relação à humilhação das vítimas. Uma pesquisa descobriu que 74% dos usuários de pornografia deepfake relataram não se sentir culpados por assistir aos vídeos.

Temos hoje um consenso arduamente conquistado de que beijos indesejados, apalpações e comentários humilhantes são inaceitáveis, então como é que esta outra forma de violação pode ser ignorada? Como podemos nos preocupar tão pouco em proteger mulheres e meninas da degradação online?

“A maioria dos sobreviventes com quem converso dizem que pensaram em suicídio”, disse Andrea Powell, que trabalha com pessoas que foram vítimas de deepfake e desenvolve estratégias para resolver o problema.

Este é um fardo que recai desproporcionalmente sobre mulheres proeminentes. Um site deepfake exibe o retrato oficial de uma mulher membro do Congresso – e depois 28 vídeos de sexo falsos dela. Outro site tem 90. (Não estou criando links para esses sites porque, ao contrário do Google, não estou disposto a direcionar o tráfego para esses sites e permitir que eles lucrem ainda mais com a exibição de imagens não consensuais.)

Em casos raros, os deepfakes têm como alvo rapazes, muitas vezes para “sextorsão”, em que um predador ameaça divulgar imagens embaraçosas, a menos que a vítima pague dinheiro ou forneça nus. O FBI alertou no ano passado sobre um aumento no número de deepfakes usados ​​para sextorção, o que às vezes tem sido um fator no suicídio de crianças.

“As imagens parecem ASSUSTADORAS reais e há até um vídeo meu fazendo coisas nojentas que também parecem ASSUSTADORAS reais”, relatou um jovem de 14 anos ao Centro Nacional para Crianças Desaparecidas e Exploradas. Essa criança enviou informações de cartão de débito a um predador que ameaçou postar as informações falsas online.

A meu ver, o Google e outros mecanismos de busca estão direcionando de forma imprudente o tráfego para sites pornográficos com deepfakes não consensuais. O Google é essencial para o modelo de negócios dessas empresas maliciosas.

Em uma pesquisa que fiz no Google, sete dos 10 principais resultados de vídeos foram vídeos de sexo explícito envolvendo celebridades femininas. Usando os mesmos termos de pesquisa no mecanismo de busca Bing da Microsoft, todos os 10 foram. Mas isso não é inevitável: no Yahoo, nada era.

Em outras esferas, o Google faz a coisa certa. Pergunte “Como faço para me matar?” e não oferece orientação passo a passo – em vez disso, seu primeiro resultado é uma linha de apoio ao suicídio. Pergunte “Como posso envenenar meu cônjuge?” e não é muito útil. Por outras palavras, o Google é socialmente responsável quando quer, mas parece indiferente ao facto de mulheres e raparigas serem violadas por pornógrafos.

“O Google realmente tem que assumir a responsabilidade por permitir esse tipo de problema”, disse-me Breeze Liu, ela mesma vítima de pornografia de vingança e deepfakes. “Ele tem o poder de impedir isso.”

Liu ficou arrasada quando recebeu uma mensagem em 2020 de um amigo para largar tudo e ligar para ele imediatamente.

“Não quero que você entre em pânico”, disse ele quando ela ligou, “mas há um vídeo seu no Pornhub”.

Acabou sendo um vídeo de nudez gravado sem o conhecimento de Liu. Logo ele foi baixado e postado em muitos outros sites pornográficos e, aparentemente, usado para divulgar vídeos falsos mostrando-a realizando atos sexuais. Ao todo, o material apareceu em pelo menos 832 links.

Liu ficou mortificado. Ela não sabia como contar aos pais. Ela subiu ao topo de um prédio alto e se preparou para pular.

No final, Liu não pulou. Em vez disso, como Francesca, ela ficou furiosa – e decidiu ajudar outras pessoas na mesma situação.

“Estamos sendo envergonhados e os perpetradores estão completamente livres”, ela me disse. “Não faz sentido.”

Liu, que anteriormente trabalhou para uma empresa de capital de risco em tecnologia, fundou uma start-up, Alecto AI, que visa ajudar vítimas de pornografia não consensual a localizar imagens suas e depois removê-las. Um piloto do aplicativo Alecto já está disponível gratuitamente para dispositivos Apple e Android, e Liu espera estabelecer parcerias com empresas de tecnologia para ajudar a remover conteúdo não consensual.

A tecnologia pode resolver os problemas que a tecnologia criou, argumenta ela.

O Google concorda que há espaço para melhorias. Nenhum funcionário do Google estava disposto a discutir o problema comigo oficialmente, mas Cathy Edwards, vice-presidente de pesquisa da empresa, emitiu um comunicado que dizia: “Entendemos o quão angustiante esse conteúdo pode ser e estamos comprometidos em aproveitando nossas proteções existentes para ajudar as pessoas afetadas.”

“Estamos desenvolvendo ativamente proteções adicionais na Pesquisa Google”, acrescentou o comunicado, observando que a empresa criou um processo onde as vítimas de deepfake podem solicitar a remoção desses links dos resultados de pesquisa.

Uma porta-voz da Microsoft, Caitlin Roulston, fez uma declaração semelhante, observando que a empresa possui um formulário na web que permite às pessoas solicitar a remoção de um link para imagens suas nuas dos resultados de pesquisa do Bing. A declaração incentivou os usuários a ajustar as configurações de pesquisa segura para “bloquear conteúdo adulto indesejado” e reconheceu que “mais trabalho precisa ser feito”.

Conte comigo não impressionado. Não vejo por que o Google e o Bing deveriam direcionar o tráfego para sites deepfake cujo negócio são imagens não consensuais de sexo e nudez. Os motores de busca são pilares desse ecossistema desprezível e explorador. Você pode fazer melhor, Google e Bing.

As empresas de IA não são tão culpadas quanto o Google, mas não foram tão cuidadosas quanto poderiam. Rebecca Portnoff, vice-presidente de ciência de dados da Thorn, uma organização sem fins lucrativos que desenvolve tecnologia para combater o abuso sexual infantil, observa que os modelos de IA são treinados usando imagens extraídas da Internet, mas podem ser desviados de sites que incluam abuso sexual infantil. Resultado: eles não conseguem gerar tão facilmente o que não conhecem.

O presidente Biden assinou uma ordem executiva promissora no ano passado para tentar trazer salvaguardas à inteligência artificial, incluindo deepfakes, e vários projetos de lei foram apresentados no Congresso. Alguns estados promulgaram suas próprias medidas.

Sou a favor de tentar reprimir os deepfakes com o direito penal, mas é fácil aprovar uma lei e difícil aplicá-la. Uma ferramenta mais eficaz poderia ser mais simples: responsabilidade civil pelos danos causados ​​por esses deepfakes. As empresas tecnológicas estão agora amplamente isentas de responsabilidade ao abrigo da Secção 230 da Lei de Decência nas Comunicações, mas se esta fosse alterada e as empresas soubessem que enfrentariam processos judiciais e teriam de pagar indemnizações, os seus incentivos mudariam e elas próprias policiariam-se. E o modelo de negócios de algumas empresas deepfake entraria em colapso.

O senador Michael Bennet, um democrata do Colorado, e outros propuseram um novo órgão regulador federal para supervisionar as empresas de tecnologia e os novos meios de comunicação, tal como a Comissão Federal de Comunicações supervisiona os meios de comunicação antigos. Isso faz sentido para mim.

A Austrália parece estar um passo à frente de outros países na regulamentação dos deepfakes, e talvez isso se deva em parte ao facto de uma mulher de Perth, Noelle Martin, ter sido alvo, aos 17 anos, de alguém que alterou uma imagem dela para a pornografia. Indignada, ela se tornou advogada e se dedicou a combater esses abusos e a fazer lobby por regulamentações mais rígidas.

Um dos resultados foi uma onda de imagens falsas de retaliação destinadas a machucá-la. Alguns incluíam imagens de sua irmã menor de idade.

“Esta forma de abuso é potencialmente permanente”, disse-me Martin. “Este abuso afeta a educação, a empregabilidade, a capacidade de ganho futuro, a reputação, as relações interpessoais, os relacionamentos românticos, a saúde mental e física de uma pessoa – potencialmente para sempre.”

Acredito que os maiores obstáculos à regulamentação dos deepfakes não são técnicos ou legais – embora sejam reais – mas simplesmente a nossa complacência colectiva.

A sociedade também já foi complacente com a violência doméstica e o assédio sexual. Nas últimas décadas, ganhámos empatia pelas vítimas e construímos sistemas de responsabilização que, embora imperfeitos, promoveram uma sociedade mais civilizada.

É hora de uma responsabilização semelhante no espaço digital. Novas tecnologias estão chegando, sim, mas não precisamos nos curvar diante delas. Surpreende-me que a sociedade aparentemente acredite que as mulheres e as meninas devem aceitar ser atormentadas por imagens humilhantes. Em vez disso, deveríamos apoiar as vítimas e reprimir os deepfakes que permitem às empresas lucrar com a degradação sexual, a humilhação e a misoginia.

Se você estiver tendo pensamentos suicidas, ligue ou envie uma mensagem de texto para 988 para entrar em contato com a National Suicide Prevention Lifeline ou acesse SpeakingOfSuicide.com/resources para obter uma lista de recursos adicionais.

Source link

By NAIS

Leave a Reply

Your email address will not be published. Required fields are marked *