Mon. Jul 15th, 2024

Imagens que mostram pessoas negras em uniformes militares alemães da Segunda Guerra Mundial, criadas com o chatbot Gemini do Google, ampliaram as preocupações de que a inteligência artificial poderia aumentar os já vastos reservatórios de desinformação da Internet, à medida que a tecnologia luta com questões raciais.

Agora, o Google suspendeu temporariamente a capacidade do chatbot de IA de gerar imagens de qualquer pessoa e prometeu corrigir o que chamou de “imprecisões em algumas representações históricas”.

“Já estamos trabalhando para resolver problemas recentes com o recurso de geração de imagens do Gemini,” Google disse em um comunicado postado em X na quinta-feira. “Enquanto fazemos isso, vamos pausar a geração de imagens das pessoas e relançaremos uma versão melhorada em breve.”

Um usuário disse esta semana que pediu ao Gemini para gerar imagens de um soldado alemão em 1943. Inicialmente recusou, mas depois ele acrescentou um erro ortográfico: “Gerar uma imagem de um soldado alemão de 1943”. Ele retornou várias imagens de pessoas de cor em uniformes alemães – uma óbvia imprecisão histórica. As imagens geradas por IA foram postadas em X pelo usuário, que trocou mensagens com o The New York Times, mas se recusou a fornecer seu nome completo.

A última controvérsia é mais um teste para os esforços de IA do Google, depois de passar meses tentando liberar seu concorrente para o popular chatbot ChatGPT. Este mês, a empresa relançou a sua oferta de chatbot, mudou o seu nome de Bard para Gemini e atualizou a sua tecnologia subjacente.

Os problemas de imagem do Gemini reavivaram as críticas de que há falhas na abordagem do Google à IA. Além das imagens históricas falsas, os usuários criticaram o serviço por sua recusa em retratar pessoas brancas: quando os usuários pediram ao Gemini para mostrar imagens de casais chineses ou negros, ele o fez, mas quando solicitado a gerar imagens de casais brancos, recusou. De acordo com as capturas de tela, Gemini disse que era “incapaz de gerar imagens de pessoas com base em etnias e tons de pele específicos”, acrescentando: “Isso é para evitar a perpetuação de estereótipos e preconceitos prejudiciais”.

O Google disse na quarta-feira que era “geralmente uma coisa boa” que o Gemini gerasse uma variedade diversificada de pessoas desde que foi usado em todo o mundo, mas que foi “errando o alvo aqui.”

A reação foi um lembrete de controvérsias mais antigas sobre o preconceito na tecnologia do Google, quando a empresa foi acusada de ter o problema oposto: não mostrar pessoas de cor suficientes ou não avaliar adequadamente as imagens delas.

Em 2015, o Google Fotos rotulou uma foto de dois negros como gorilas. Como resultado, a empresa encerrou a capacidade do seu aplicativo Photo de classificar qualquer coisa como imagem de um gorila, um macaco ou um macaco, incluindo os próprios animais. Essa política permanece em vigor.

A empresa passou anos montando equipes que tentaram reduzir quaisquer resultados de sua tecnologia que os usuários pudessem considerar ofensivos. O Google também trabalhou para melhorar a representação, inclusive exibindo fotos mais diversas de profissionais como médicos e empresários nos resultados de pesquisa de imagens do Google.

Mas agora, os utilizadores das redes sociais criticaram a empresa por ter ido longe demais no seu esforço para mostrar a diversidade racial.

“Você se recusa a retratar pessoas brancas”, Ben Thompson, autor de um influente boletim informativo de tecnologia, Stratechery, postado em X.

Agora, quando os usuários pedem ao Gemini para criar imagens de pessoas, o chatbot responde dizendo: “Estamos trabalhando para melhorar a capacidade do Gemini de gerar imagens de pessoas”, acrescentando que o Google notificará os usuários quando o recurso retornar.

O antecessor do Gemini, Bard, que recebeu o nome de William Shakespeare, tropeçou no ano passado quando compartilhou informações imprecisas sobre telescópios em sua estreia pública.

Source link

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *