Quando a OpenAI lançou o Sora 2, a festa parecia garantida: mais de 1 milhão de downloads em menos de cinco dias. Mas o que era para ser celebração virou tempestade: enquanto alguns celebravam, outros viam o apetite por controle ou descontrole.
O app, exclusivo para iOS e só para convidados (disponível nos EUA e Canadá por enquanto), permite criar vídeos hiper-realistas de até 10 segundos apenas com instruções de texto. Resultado? Subiu rápido na App Store, e sua adoção inicial foi até comparada ao início meteórico do ChatGPT, segundo o chefe de produto do Sora, Bill Peebles.
Mas o que fazer quando o sucesso bate e junto vem a revolta?
Hollywood entra em cena e com ódio
A Motion Picture Association (MPA), que reúne gigantes como Disney, Warner e Universal, não ficou nada satisfeita. Em nota dura, a associação exige que a OpenAI “aja com urgência” para barrar o uso indevido de personagens e conteúdos protegidos por direitos autorais.
Desde 30 de setembro, usuários criaram vídeos com personagens famosos de James Bond jogando pôquer com o CEO da OpenAI a Mario fugindo da polícia em estilo “body cam”. Não mais “fantasia de fã”, mas conteúdo gerado automaticamente, sem autorização.
A principal crítica: em vez de proteger os criadores, a OpenAI optou por um modelo “opt-out” ou seja, quem quiser impedir que sua propriedade intelectual seja usada deve pedir para sair. Agências de talentos como WME e CAA já garantiram que todos os seus clientes serão “optados para fora”.
Uso de imagens de celebridades já falecidas
A indignação não veio apenas dos estúdios. Famílias de celebridades falecidas sentiram o golpe com força. Zelda Williams, filha de Robin Williams, postou no Instagram:
“Por favor, apenas parem de me enviar vídeos de IA do papai… Vocês não estão fazendo arte, estão fazendo cachorros-quentes nojentos e superprocessados com as vidas de seres humanos.”
Kelly Carlin, filha de George Carlin, disse que recebe e-mails diariamente com IA usando o rosto do pai. “É esmagador, depressivo.” A família de Malcolm X também falou sobre a dor de ver sua imagem explorada “tão casualmente”.
A OpenAI tenta se defender, dizendo que há “interesses fortes de liberdade de expressão” em representar figuras históricas. Mas permite que representantes autorizados peçam para impedir que “figuras públicas recentemente falecidas” sejam retratadas. Só que… o que significa “recentemente falecidas”? E quem define isso?
Reviravolta forçada: OpenAI tenta correr atrás
Sob pressão pesada, o CEO Sam Altman publicou uma mudança de rota: abandona o modelo “opt-out” e adota um sistema de inclusão voluntária ou seja, conteúdos protegidos por direitos autorais só serão permitidos se houver autorização explícita. Ele falou que a empresa só entendeu a gravidade do problema após o lançamento, reconhecendo que a abordagem inicial falhou.
Isso gerou outro tipo de reclamação: alguns usuários dizem que o app ficou “praticamente inútil”, preso a filtros tão rígidos que limitam a criatividade.
Mesmo assim, usuários já descobriram jeitos de burlar restrições, usando nomes não oficiais ou trocando prompts para escapar da moderação.
Deepfakes com patrocínio: o novo perigo
Especialistas em segurança digital enxergam no Sora não só um app, mas uma nova fronteira de ameaça. Daisy Soderberg-Rivkin, ex-líder de segurança do TikTok, disparou:
“É como se os deepfakes tivessem conseguido um publicitário e um acordo de distribuição.”
A integração do app com redes sociais faz com que vídeos falsos gerados por IA se tornem virais, quase indistinguíveis do real.
A OpenAI tenta responder: está desenhando modelos de partilha de receita para os detentores de direitos e liberando controles mais refinados para geração de personagens. Mas juristas já dizem: essa é só a ponta do iceberg. A briga entre Hollywood e Vale do Silício sobre “quem controla a arte” mal começou e promete queimar muitos neurônios (e processos).






