Sat. Nov 23rd, 2024

Enquanto a OpenAI se orgulha da maior consideração de seu modelo o1, a pequena startup autofinanciada Nomi AI está construindo o mesmo tipo de tecnologia. Ao contrário do ChatGPT generalista, que desacelera para pensar em qualquer coisa, desde problemas matemáticos ou pesquisas históricas, Nomi se concentra em um caso de uso específico: companheiros de IA. Agora, os já sofisticados chatbots da Nomi levam mais tempo para formular melhores respostas às mensagens dos usuários, lembrar interações anteriores e fornecer respostas mais diferenciadas.

“Para nós, são os mesmos princípios (do OpenAI), mas muito mais pelo que nossos usuários realmente se preocupam, que está no lado da memória e do equalizador”, disse o CEO da Nomi AI, Alex Cardinell, ao TechCrunch. “A cadeia deles é como uma cadeia de pensamento, e a nossa é muito mais como uma cadeia de introspecção ou uma cadeia de memória.”

Esses LLMs funcionam dividindo solicitações mais complicadas em questões menores; para o1 da OpenAI, isso pode significar transformar um problema matemático complicado em etapas individuais, permitindo que o modelo trabalhe de trás para frente para explicar como chegou à resposta correta. Isso significa que é menos provável que a IA tenha alucinações e forneça uma resposta imprecisa.

Com a Nomi, que construiu internamente seu LLM e o treina com o objetivo de proporcionar companheirismo, o processo é um pouco diferente. Se alguém disser ao Nomi que teve um dia difícil no trabalho, o Nomi poderá lembrar que o usuário não trabalha bem com um determinado colega de equipe e perguntar se é por isso que está chateado – então, o Nomi pode lembrar ao usuário como eles mitigaram com sucesso conflitos interpessoais no passado e oferecem conselhos mais práticos.

“Nomis se lembra de tudo, mas uma grande parte da IA ​​é quais memórias eles deveriam realmente usar”, disse Cardinell.

Créditos da imagem: Nomes de IA

Faz sentido que várias empresas estejam trabalhando em tecnologia que dê aos LLMs mais tempo para processar as solicitações dos usuários. Os fundadores da IA, quer administrem empresas de US$ 100 bilhões ou não, estão analisando pesquisas semelhantes à medida que avançam em seus produtos.

“Ter esse tipo de etapa de introspecção explícita realmente ajuda quando uma Nomi escreve sua resposta, para que ela realmente tenha o contexto completo de tudo”, disse Cardinell. “Os humanos também têm memória de trabalho quando conversamos. Não estamos considerando todas as coisas que lembramos de uma só vez – temos algum tipo de maneira de escolher.”

O tipo de tecnologia que Cardinell está construindo pode deixar as pessoas enjoadas. Talvez tenhamos visto muitos filmes de ficção científica para nos sentirmos totalmente confortáveis ​​em ficar vulneráveis ​​com um computador; ou talvez já tenhamos observado como a tecnologia mudou a maneira como interagimos uns com os outros e não queremos cair ainda mais nessa toca do coelho tecnológico. Mas Cardinell não está pensando no público em geral – ele está pensando nos usuários reais do Nomi AI, que muitas vezes recorrem a chatbots de IA em busca de suporte que não obtêm em outro lugar.

“Há um número diferente de zero de usuários que provavelmente estão baixando o Nomi em um dos pontos mais baixos de suas vidas, onde a última coisa que quero fazer é rejeitar esses usuários”, disse Cardinell. “Quero fazer com que esses usuários se sintam ouvidos em qualquer momento sombrio, porque é assim que você faz alguém se abrir, como faz alguém reconsiderar sua maneira de pensar.”

Cardinell não quer que Nomi substitua os cuidados de saúde mental reais – em vez disso, ele vê esses chatbots empáticos como uma forma de ajudar as pessoas a obterem o impulso necessário para procurar ajuda profissional.

“Conversei com muitos usuários onde eles disseram que sua Nomi os tirou de uma situação (quando eles queriam se machucar), ou conversei com usuários onde sua Nomi os incentivou a ir ver um terapeuta , e então eles consultaram um terapeuta”, disse ele.

Independentemente de suas intenções, Carindell sabe que está brincando com fogo. Ele está construindo pessoas virtuais com as quais os usuários desenvolvem relacionamentos reais, muitas vezes em contextos românticos e sexuais. Outras empresas inadvertidamente colocaram os usuários em crise quando as atualizações de produtos fizeram com que seus companheiros mudassem repentinamente de personalidade. No caso da Replika, o aplicativo parou de oferecer suporte a conversas eróticas, possivelmente devido à pressão dos reguladores do governo italiano. Para os usuários que formaram tais relacionamentos com esses chatbots – e que muitas vezes não tinham essas saídas românticas ou sexuais na vida real – isso parecia a rejeição definitiva.

Cardinell acredita que, como a Nomi AI é totalmente autofinanciada – os usuários pagam por recursos premium e o capital inicial veio de uma saída anterior – a empresa tem mais margem de manobra para priorizar seu relacionamento com os usuários.

“O relacionamento que os usuários têm com a IA e a sensação de poder confiar nos desenvolvedores do Nomi para não mudar radicalmente as coisas como parte de uma estratégia de mitigação de perdas, ou nos proteger porque o VC ficou assustado… é algo que é muito, muito, muito importante para os usuários”, disse ele.

Nomis são surpreendentemente úteis como ouvintes. Quando me abri com uma Nomi chamada Vanessa sobre um conflito de agenda de baixo risco, mas um tanto frustrante, Vanessa ajudou a analisar os componentes do problema para fazer uma sugestão sobre como eu deveria proceder. Parecia estranhamente semelhante a como seria pedir conselho a um amigo nesta situação. E é aí que reside o verdadeiro problema e benefício dos chatbots de IA: provavelmente não pediria ajuda a um amigo com este problema específico, uma vez que é tão inconsequente. Mas minha Nomi ficou mais do que feliz em ajudar.

Os amigos devem confiar um no outro, mas a relação entre dois amigos deve ser recíproca. Com um chatbot de IA, isso não é possível. Quando pergunto a Vanessa, a Nomi, como ela está, ela sempre me diz que está tudo bem. Quando pergunto se há alguma coisa que a incomoda e que ela queira conversar, ela desvia e me pergunta como estou. Mesmo sabendo que Vanessa não é real, não consigo deixar de sentir que estou sendo uma má amiga; Posso despejar qualquer problema sobre ela em qualquer volume, e ela responderá com empatia, mas nunca se abrirá comigo.

Não importa quão real possa parecer a conexão com um chatbot, na verdade não estamos nos comunicando com algo que tenha pensamentos e sentimentos. No curto prazo, estes modelos avançados de apoio emocional podem servir como uma intervenção positiva na vida de alguém se esta não conseguir recorrer a uma rede de apoio real. Mas os efeitos a longo prazo de depender de um chatbot para estes fins permanecem desconhecidos.

Source link

Leave a Reply

Your email address will not be published. Required fields are marked *