Kevin Roose: Sim. Portanto, significa inteligência artificial geral. E você provavelmente poderia perguntar a centenas de pesquisadores de IA diferentes, e eles lhe dariam centenas de definições diferentes. Pesquisadores do Google DeepMind apenas lançou um artigo este mês isso oferece uma estrutura. Eles têm cinco níveis, variando de zero, que não é IA, até o nível 5, que é sobre-humano. E eles sugerem que atualmente ChatGPT, Bard, LLaMA estão todos no Nível 1, que é igual ou ligeiramente melhor do que um ser humano não qualificado. Você concordaria com isso?
Sam Altman: Acho que o que importa é a curva e a taxa de progresso. E não haverá nenhum marco com o qual todos concordamos, tipo, OK, passamos e agora se chama AGI. Acho que a maior parte do mundo só se importa se isso é útil para eles ou não. E atualmente temos sistemas que são um tanto úteis, é claro. E se queremos dizer que é Nível 1 ou 2, não sei.
Mas as pessoas usam muito e realmente adoram. Existem enormes fraquezas nos sistemas atuais. Fico um pouco envergonhado com os GPTs, mas as pessoas ainda gostam deles, e isso é bom. É bom fazer coisas úteis para as pessoas. Então, sim, chame de Nível 1. Não me incomoda nem um pouco.
Kevin Roose: O que os sistemas de IA atuais são úteis e quais não são úteis para fazer?
Sam Altman: Eu diria que a principal coisa em que eles são ruins é o raciocínio. E muitas das coisas humanas valiosas exigem algum grau de raciocínio complexo. Eles são bons em muitas outras coisas – como, o GPT-4 é muito sobre-humano em termos de conhecimento mundial. Ele sabe mais do que qualquer ser humano jamais soube. Por outro lado, novamente, às vezes ele inventa coisas de uma forma que um ser humano não faria. Mas, você sabe, se você estiver usando-o para ser um programador, por exemplo, isso pode aumentar enormemente sua produtividade. E há valor nisso, embora tenha todos esses outros pontos fracos. Se você é estudante, pode aprender muito mais do que sem usar esta ferramenta. Valor aí também.
Kevin Roose: Neste momento, Acho que o que impede muitas pessoas em muitas empresas e organizações é que isso pode não ser confiável – pode inventar coisas; pode dar respostas erradas. O que é bom se você estiver fazendo trabalhos de redação criativa, mas não se for um hospital, um escritório de advocacia ou qualquer outra coisa com grandes riscos. E como resolvemos esse problema de confiabilidade? E você acha que algum dia chegaremos ao tipo de baixa tolerância a falhas necessária para essas aplicações de alto risco?
THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS