Fri. Sep 20th, 2024

Em abril, uma start-up nova-iorquina chamada Runway AI revelou uma tecnologia que permite às pessoas gerar vídeos, como uma vaca numa festa de aniversário ou um cão a conversar num smartphone, bastando digitar uma frase numa caixa no ecrã do computador.

Os vídeos de quatro segundos estavam borrados, entrecortados, distorcidos e perturbadores. Mas eram um sinal claro de que as tecnologias de inteligência artificial gerariam vídeos cada vez mais convincentes nos próximos meses e anos.

Apenas 10 meses depois, a startup OpenAI de São Francisco revelou um sistema semelhante que cria vídeos que parecem ter sido retirados de um filme de Hollywood. Uma demonstração incluiu vídeos curtos – criados em minutos – de mamutes peludos trotando por uma campina nevada, um monstro olhando para uma vela derretida e uma cena de rua de Tóquio aparentemente filmada por uma câmera voando pela cidade.

OpenAI, a empresa por trás do chatbot ChatGPT e do gerador de imagens estáticas DALL-E, está entre as muitas empresas que correm para melhorar esse tipo de gerador de vídeo instantâneo, incluindo start-ups como Runway e gigantes da tecnologia como Google e Meta, proprietária da Facebook e Instagram. A tecnologia poderia acelerar o trabalho de cineastas experientes, ao mesmo tempo que substituiria inteiramente artistas digitais menos experientes.

Também poderia tornar-se uma forma rápida e barata de criar desinformação online, tornando ainda mais difícil dizer o que é real na Internet.

“Estou absolutamente aterrorizado que este tipo de coisa possa influenciar uma eleição disputada por pouco”, disse Oren Etzioni, professor da Universidade de Washington especializado em inteligência artificial. Ele também é o fundador da True Media, uma organização sem fins lucrativos que trabalha para identificar desinformação online em campanhas políticas.

A OpenAI chama seu novo sistema de Sora, em homenagem à palavra japonesa para céu. A equipe por trás da tecnologia, incluindo os pesquisadores Tim Brooks e Bill Peebles, escolheu o nome porque “evoca a ideia de potencial criativo ilimitado”.

Em entrevista, eles também disseram que a empresa ainda não estava divulgando o Sora ao público porque ainda estava trabalhando para entender os perigos do sistema. Em vez disso, a OpenAI está a partilhar a tecnologia com um pequeno grupo de académicos e outros investigadores externos que irão “equipar-se” com ela, um termo para procurar formas de utilização indevida.

“A intenção aqui é dar uma prévia do que está por vir, para que as pessoas possam ver as capacidades desta tecnologia – e possamos obter feedback”, disse o Dr.

A OpenAI já está marcando vídeos produzidos pelo sistema com marcas d’água que os identificam como gerados por IA. Mas a empresa reconhece que elas podem ser removidas. Eles também podem ser difíceis de detectar. (O New York Times adicionou marcas d’água “Geradas por IA” aos vídeos desta história.)

O sistema é um exemplo de IA generativa, que pode criar instantaneamente textos, imagens e sons. Como outras tecnologias generativas de IA, o sistema da OpenAI aprende analisando dados digitais – neste caso, vídeos e legendas que descrevem o que esses vídeos contêm.

A OpenAI se recusou a dizer com quantos vídeos o sistema aprendeu ou de onde eles vieram, exceto para dizer que o treinamento incluiu vídeos disponíveis publicamente e vídeos licenciados por detentores de direitos autorais. A empresa fala pouco sobre os dados usados ​​para treinar suas tecnologias, provavelmente porque deseja manter uma vantagem sobre os concorrentes — e já foi processada diversas vezes por usar material protegido por direitos autorais.

(O New York Times processou a OpenAI e sua parceira, a Microsoft, em dezembro, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA.)

Sora gera vídeos em resposta a breves descrições, como “um mundo de papel maravilhosamente renderizado de um recife de coral, repleto de peixes coloridos e criaturas marinhas”. Embora os vídeos possam ser impressionantes, nem sempre são perfeitos e podem incluir imagens estranhas e ilógicas. O sistema, por exemplo, gerou recentemente um vídeo de alguém comendo um biscoito – mas o biscoito nunca ficou menor.

DALL-E, Midjourney e outros geradores de imagens estáticas melhoraram tão rapidamente nos últimos anos que agora produzem imagens quase indistinguíveis das fotografias. Isto tornou mais difícil a identificação de desinformação online, e muitos artistas digitais queixam-se de que isso tornou mais difícil para eles encontrar trabalho.

“Todos nós rimos em 2022, quando Midjourney foi lançado e dissemos: ‘Oh, isso é fofo’”, disse Reid Southen, um artista conceitual de cinema em Michigan. “Agora as pessoas estão perdendo seus empregos para Midjourney.”

Source link

By NAIS

THE NAIS IS OFFICIAL EDITOR ON NAIS NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *