Nova ferramenta de ia eleva risco de ‘deepfake’
Com a criação de vídeos ultrarrealistas a partir de comandos simples de texto, o novo ...
Com a criação de vídeos ultrarrealistas a partir de comandos simples de texto, o novo sistema de inteligência artificial da OpenAI, o Sora, aumenta a preocupação sobre a disseminação de deepfakes e deve esquentar os embates que envolvem direitos autorais para conteúdos gerados por IA. Mas ainda há dúvidas sobre até que ponto o sistema pode criar vídeos que simulam com qualidade a realidade, avaliam especialistas ouvidos pelo GLOBO.
Assim como ocorreu com o ChatGPT, robô da OpenAI que cria textos, o Sora foi apresentado pela empresa com o alerta de que se trata de um sistema ainda com diversas limitações. "(O modelo) pode ter dificuldade em simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas depois o biscoito pode não ter marca de mordida", informa a OpenAI no texto sobre a ferramenta.
Os primeiros vídeos criados pelo Sora, divulgados na quinta-feira, impressionam por apresentar de forma ultrarrealista pessoas, cenários e objetos, com grau de complexidade maior que o de concorrentes como Midjourney e Stable Diffusion.
" O que eles não falam é que, possivelmente, os vídeos são alguns dentre milhares que foram feitos até chegar a um resultado apresentável. O processo de criação não é tão simples quanto parece. Às vezes é preciso criar mil imagens para obter uma muito boa " diz Fabro Steibel, diretor executivo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio).
Por enquanto, apenas um grupo restrito de pesquisadores e artistas pode acessar o Sora. A OpenAI não informou quando ele será liberado para todos os usuários, nem se será gratuito ou pago.
de quem é a propriedade?
Entre os avanços em relação aos concorrentes, a empresa destaca a capacidade do Sora em criar cenas complexas com vários personagens, com movimentos e detalhes, além de entender não só o que o usuário pediu no comando, mas também "como essas coisas existem no mundo físico".
A OpenAI, porém, admite haver fragilidades. Ela ontem divulgou uma série de vídeos que escancaram as limitações do Sora, como uma cadeira amolecida que voa no deserto e uma bola de basquete que explode ao cair na cesta.
Não é a primeira vez que a OpenAI lança um sistema com falhas: isso ocorreu com o Dall-E e o ChatGPT.
Francisco Brito Cruz, diretor executivo do InternetLab, ressalta que a IA está em aperfeiçoamento contínuo, mas, com isso, os riscos também aumentam:
" As discussões sobre criação de conteúdo falso ou violento e os riscos de criar conteúdo com material protegido por direito autoral voltam a aparecer.
Cristiane Manzueto, sócia da área de Proteção de Dados e Propriedade Intelectual do escritório Tauil & Chequer Advogados, associado ao Mayer Brown, questiona "como fica a titularidade, do ponto de vista de propriedade intelectual, do resultado gerado pela inteligência artificial".
Segundo a OpenAI, o Sora terá barreiras à criação de conteúdos violentos ou de cunho sexual e restrições à geração de vídeos com celebridades. E disse que vai incluir uma espécie de marca criptografada ao conteúdo do Sora, para indicar que ele foi gerado por IA.
Para Steibel, isso dificilmente resolverá o problema das imagens falsas ou deepfakes, porque "possivelmente vão encontrar formas de retirá-las ou falsificá-las". Brito Cruz ressalta que é preciso ter parâmetros antes que isso aconteça.