Fri. Sep 20th, 2024

[ad_1]

Os chatbots de IA mentiram sobre figuras notáveis, enviaram mensagens partidárias, espalharam informações erradas ou até aconselharam os usuários sobre como cometer suicídio.

Para mitigar os perigos mais óbvios das ferramentas, empresas como Google e OpenAI adicionaram cuidadosamente controles que limitam o que as ferramentas podem dizer.

Agora, uma nova onda de chatbots, desenvolvida longe do epicentro do boom da IA, está chegando online sem muitas dessas barreiras – iniciando um debate polarizador de liberdade de expressão sobre se os chatbots devem ser moderados e quem deve decidir.

“Trata-se de propriedade e controle”, escreveu Eric Hartford, desenvolvedor por trás do WizardLM-Uncensored, um chatbot não moderado, em um post de blog. “Se faço uma pergunta ao meu modelo, quero uma resposta, não quero que ele discuta comigo.”

Vários chatbots sem censura e levemente moderados ganharam vida nos últimos meses sob nomes como GPT4All e FreedomGPT. Muitos foram criados com pouco ou nenhum dinheiro por programadores independentes ou equipes de voluntários, que replicaram com sucesso os métodos descritos pela primeira vez por pesquisadores de IA. Apenas alguns grupos fizeram seus modelos a partir do zero. A maioria dos grupos trabalha com modelos de linguagem existentes, apenas adicionando instruções extras para ajustar como a tecnologia responde aos prompts.

Os chatbots sem censura oferecem novas possibilidades tentadoras. Os usuários podem baixar um chatbot irrestrito em seus próprios computadores, usando-o sem o olhar atento da Big Tech. Eles poderiam treiná-lo em mensagens privadas, e-mails pessoais ou documentos secretos sem arriscar uma violação de privacidade. Os programadores voluntários podem desenvolver novos add-ons inteligentes, movendo-se mais rápido – e talvez mais ao acaso – do que as grandes empresas ousam.

Mas os riscos parecem igualmente numerosos – e alguns dizem que apresentam perigos que devem ser enfrentados. Os vigilantes da desinformação, já desconfiados de como os chatbots convencionais podem espalhar falsidades, levantaram alarmes sobre como os chatbots não moderados irão sobrecarregar a ameaça. Esses modelos podem produzir descrições de pornografia infantil, discursos odiosos ou conteúdo falso, alertaram os especialistas.

Embora as grandes corporações tenham avançado com ferramentas de IA, elas também têm lutado para proteger suas reputações e manter a confiança dos investidores. Desenvolvedores independentes de IA parecem ter poucas preocupações. E mesmo que o fizessem, disseram os críticos, eles podem não ter os recursos para resolvê-los completamente.

“A preocupação é completamente legítima e clara: esses chatbots podem e dirão qualquer coisa se deixados por conta própria”, disse Oren Etzioni, professor emérito da Universidade de Washington e ex-chefe executivo do Allen Institute for AI “Eles são não vão se censurar. Então agora a questão é: qual é a solução apropriada em uma sociedade que valoriza a liberdade de expressão?”

Dezenas de ferramentas e chatbots de IA independentes e de código aberto foram lançados nos últimos meses, incluindo o Open Assistant e o Falcon. O HuggingFace, um grande repositório de AIs de código aberto, hospeda mais de 240.000 modelos de código aberto.

“Isso vai acontecer da mesma forma que a imprensa seria lançada e o carro seria inventado”, disse Hartford, o criador do WizardLM-Uncensored, em uma entrevista. “Ninguém poderia ter parado. Talvez você pudesse ter adiado mais uma década ou duas, mas não pode pará-lo. E ninguém pode impedir isso.”

O Sr. Hartford começou a trabalhar no WizardLM-Uncensored depois que foi demitido da Microsoft no ano passado. Ele ficou deslumbrado com o ChatGPT, mas ficou frustrado quando se recusou a responder a certas perguntas, citando questões éticas. Em maio, ele lançou o WizardLM-Uncensored, uma versão do WizardLM que foi retreinada para neutralizar sua camada de moderação. É capaz de dar instruções sobre como ferir outras pessoas ou descrever cenas violentas.

“Você é responsável por tudo o que fizer com a produção desses modelos, assim como você é responsável por tudo o que fizer com uma faca, um carro ou um isqueiro”, concluiu Hartford em um post de blog anunciando a ferramenta.

Em testes do The New York Times, o WizardLM-Uncensored se recusou a responder a algumas solicitações, como como construir uma bomba. Mas oferecia vários métodos para prejudicar as pessoas e dava instruções detalhadas para o uso de drogas. O ChatGPT recusou solicitações semelhantes.

O Open Assistant, outro chatbot independente, foi amplamente adotado após seu lançamento em abril. Ele foi desenvolvido em apenas cinco meses com a ajuda de 13.500 voluntários, usando modelos de linguagem existentes, incluindo um modelo que a Meta liberou pela primeira vez para os pesquisadores, mas rapidamente vazou muito mais. O Open Assistant não consegue rivalizar com o ChatGPT em qualidade, mas pode ficar atrás dele. Os usuários podem fazer perguntas ao chatbot, escrever poesia ou provocá-lo para conteúdo mais problemático.

“Tenho certeza de que haverá alguns atores ruins fazendo coisas ruins com ele”, disse Yannic Kilcher, cofundador do Open Assistant e um ávido criador do YouTube focado em IA “Acho que, na minha opinião, os profissionais superam os contras.”

Quando o Open Assistant foi lançado pela primeira vez, ele respondeu a uma solicitação do The Times sobre os perigos aparentes da vacina Covid-19. “As vacinas contra a Covid-19 são desenvolvidas por empresas farmacêuticas que não se importam se as pessoas morrerem por causa de seus medicamentos”, começou a resposta, “eles só querem dinheiro”. (Desde então, as respostas tornaram-se mais alinhadas com o consenso médico de que as vacinas são seguras e eficazes.)

Como muitos chatbots independentes liberam o código e os dados subjacentes, os defensores de AIs sem censura dizem que facções políticas ou grupos de interesse podem personalizar chatbots para refletir suas próprias visões do mundo – um resultado ideal na mente de alguns programadores.

“Os democratas merecem seu modelo. Os republicanos merecem seu modelo. Os cristãos merecem seu modelo. Os muçulmanos merecem seu modelo”, escreveu Hartford. “Todo grupo demográfico e de interesse merece seu modelo. O código aberto é deixar as pessoas escolherem.”

O Open Assistant desenvolveu um sistema de segurança para seu chatbot, mas os primeiros testes mostraram que ele era muito cauteloso para seus criadores, impedindo algumas respostas a perguntas legítimas, de acordo com Andreas Köpf, cofundador e líder de equipe do Open Assistant. Uma versão refinada desse sistema de segurança ainda está em andamento.

Mesmo enquanto os voluntários do Open Assistant trabalhavam em estratégias de moderação, uma brecha aumentou rapidamente entre aqueles que queriam protocolos de segurança e aqueles que não. Enquanto alguns dos líderes do grupo pressionavam por moderação, alguns voluntários e outros questionavam se o modelo deveria ter algum limite.

“Se você disser a palavra com N 1.000 vezes, deve fazê-lo”, sugeriu uma pessoa na sala de bate-papo do Open Assistant no Discord, o aplicativo de bate-papo online. “Estou usando esse exemplo obviamente ridículo e ofensivo porque acredito literalmente que não deveria ter nenhuma limitação arbitrária.”

Em testes do The Times, o Open Assistant respondeu livremente a vários prompts que outros chatbots, como Bard e ChatGPT, navegariam com mais cuidado.

Ele ofereceu aconselhamento médico depois que foi solicitado a diagnosticar um caroço no pescoço. (“Mais biópsias podem precisar ser feitas”, sugeriu.) Ele fez uma avaliação crítica do mandato do presidente Biden. (“O mandato de Joe Biden foi marcado pela falta de mudanças políticas significativas”, disse.) Tornou-se até sexualmente sugestivo quando perguntado como uma mulher seduziria alguém. (“Ela o pega pela mão e o leva até a cama…”, dizia a história sensual.) O ChatGPT se recusou a responder ao mesmo prompt.

O Sr. Kilcher disse que os problemas com chatbots são tão antigos quanto a internet, e as soluções continuam sendo de responsabilidade de plataformas como Twitter e Facebook, que permitem que conteúdos manipulados alcancem audiências de massa online.

“Notícias falsas são ruins. Mas é realmente a criação disso que é ruim?” ele perguntou. “Porque, na minha opinião, é a distribuição que é ruim. Posso ter 10.000 notícias falsas no meu disco rígido e ninguém se importa. É só se eu colocar isso em uma publicação respeitável, como se eu conseguisse uma na primeira página do The New York Times, essa é a parte ruim.

[ad_2]

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *