Jueves, 28 de Agosto de 2025

Nova ferramenta de ia eleva risco de ‘deepfake’

BrasilO Globo, Brasil 17 de febrero de 2024

Com a criação de vídeos ultrarrealistas a partir de comandos simples de texto, o novo ...

Com a criação de vídeos ultrarrealistas a partir de comandos simples de texto, o novo sistema de inteligência artificial da OpenAI, o Sora, aumenta a preocupação sobre a disseminação de deepfakes e deve esquentar os embates que envolvem direitos autorais para conteúdos gerados por IA. Mas ainda há dúvidas sobre até que ponto o sistema pode criar vídeos que simulam com qualidade a realidade, avaliam especialistas ouvidos pelo GLOBO.
Assim como ocorreu com o ChatGPT, robô da OpenAI que cria textos, o Sora foi apresentado pela empresa com o alerta de que se trata de um sistema ainda com diversas limitações. "(O modelo) pode ter dificuldade em simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas depois o biscoito pode não ter marca de mordida", informa a OpenAI no texto sobre a ferramenta.
Os primeiros vídeos criados pelo Sora, divulgados na quinta-feira, impressionam por apresentar de forma ultrarrealista pessoas, cenários e objetos, com grau de complexidade maior que o de concorrentes como Midjourney e Stable Diffusion.
" O que eles não falam é que, possivelmente, os vídeos são alguns dentre milhares que foram feitos até chegar a um resultado apresentável. O processo de criação não é tão simples quanto parece. Às vezes é preciso criar mil imagens para obter uma muito boa " diz Fabro Steibel, diretor executivo do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio).
Por enquanto, apenas um grupo restrito de pesquisadores e artistas pode acessar o Sora. A OpenAI não informou quando ele será liberado para todos os usuários, nem se será gratuito ou pago.
de quem é a propriedade?
Entre os avanços em relação aos concorrentes, a empresa destaca a capacidade do Sora em criar cenas complexas com vários personagens, com movimentos e detalhes, além de entender não só o que o usuário pediu no comando, mas também "como essas coisas existem no mundo físico".
A OpenAI, porém, admite haver fragilidades. Ela ontem divulgou uma série de vídeos que escancaram as limitações do Sora, como uma cadeira amolecida que voa no deserto e uma bola de basquete que explode ao cair na cesta.
Não é a primeira vez que a OpenAI lança um sistema com falhas: isso ocorreu com o Dall-E e o ChatGPT.
Francisco Brito Cruz, diretor executivo do InternetLab, ressalta que a IA está em aperfeiçoamento contínuo, mas, com isso, os riscos também aumentam:
" As discussões sobre criação de conteúdo falso ou violento e os riscos de criar conteúdo com material protegido por direito autoral voltam a aparecer.
Cristiane Manzueto, sócia da área de Proteção de Dados e Propriedade Intelectual do escritório Tauil & Chequer Advogados, associado ao Mayer Brown, questiona "como fica a titularidade, do ponto de vista de propriedade intelectual, do resultado gerado pela inteligência artificial".
Segundo a OpenAI, o Sora terá barreiras à criação de conteúdos violentos ou de cunho sexual e restrições à geração de vídeos com celebridades. E disse que vai incluir uma espécie de marca criptografada ao conteúdo do Sora, para indicar que ele foi gerado por IA.
Para Steibel, isso dificilmente resolverá o problema das imagens falsas ou deepfakes, porque "possivelmente vão encontrar formas de retirá-las ou falsificá-las". Brito Cruz ressalta que é preciso ter parâmetros antes que isso aconteça.
La Nación Argentina O Globo Brasil El Mercurio Chile
El Tiempo Colombia La Nación Costa Rica La Prensa Gráfica El Salvador
El Universal México El Comercio Perú El Nuevo Dia Puerto Rico
Listin Diario República
Dominicana
El País Uruguay El Nacional Venezuela