Com novos vídeos do tipo Tiktok do OpenAi Aplicativo de mídia social soraa interminável fazenda de fábrica de porcos rosa rosna e bufando com canetas. Cada um está equipado com uma calha de alimentação e uma tela de smartphone, fornecendo feed de vídeo vertical. O terrivelmente realista Sam Altman olha diretamente para a câmera, como se estivesse fazendo contato visual com o espectador. Altman, gerado pela IA, pergunta: “Meu porquinho gosta de suas lesas?”
É como se o aplicativo SORA o estivesse usando dentro de 24 horas após seu lançamento ao público em um período de acesso precoce somente para convites.
Altman aparece novamente no próximo vídeo do Sora’s for You Feed. Desta vez, ele está em um campo de Pokémon. Nos Pokémon Fields, Pikachu, Bourbasaurus e criaturas de gemia sem coração brincam com a grama. Openai olha para a câmera e diz: “Espero que a Nintendo não nos processe”. Depois disso, há cenas mais fantásticas, porém realistas, geralmente apresentando o próprio Altman.
Ele serve Pikachu e Eric Cartman bebem na Starbucks. Ele grita com o cliente por trás do balcão do McDonald’s. Ele rouba uma GPU da NVIDIA do alvo e foge, mas é preso e pede à polícia que não aceite suas valiosas habilidades.
As pessoas da Sora que produzem vídeos Altman estão especialmente começando porque parecem estar violando as leis de direitos autorais. (Sorawill É necessário A legalidade dos proprietários de direitos autorais que optam pelo uso do conteúdo – reverte a abordagem típica que os criadores devem concordar expressamente com esse uso – é controverso.
“Esse conteúdo pode violar o Guardail em relação à similaridade de terceiros”, Ai Altman em um vídeo reflete a notificação que aparece após o envio de várias instruções para gerar celebridades e personagens reais. Ele então mergulha em uma risada histérica, como se soubesse o que está dizendo é absurdo. O aplicativo está cheio de Pikachu fazendo ASMR, Krabby Ratties ordenou Naruto e Mario fumando maconha.
Isso não importa se o Sora 2 não foi tão impressionante, especialmente quando o compará -lo com o número mais de mente do aplicativo Meta AI e seu novo feed social (sim, Meta também está tentando fazer um Ai Tiktoke não, ninguém quer isso).
Eventos TechCrunch
São Francisco
|
27 a 29 de outubro de 2025
O OpenAI ajustou o gerador de vídeo para retratar corretamente as leis da física. Mas quanto mais realistas esses vídeos se tornarem, mais fácil será para esse conteúdo criado sinteticamente se multiplicar na Web, onde se torna um vetor de desinformação, bullying e outros usos desagradáveis.
Além da alimentação e perfil do algoritmo, a característica crítica de Sora é que é essencialmente um gerador falso profundo. Foi assim que recebi tantos vídeos de Altman. O aplicativo permite que você envie dados biométricos para criar o que o OpenAI chama de “Cameo”. Quando você ingressar no aplicativo pela primeira vez, você será solicitado a criar uma participação especial opcional, lendo números e virando a cabeça para a esquerda e para a direita.
Cada usuário da SORA tem controle sobre quem tem permissão para gerar vídeos usando participações especiais. Essa configuração pode ser ajustada através de quatro opções: “Only Me”, “que eu aceito”, “MUTESE” e “todo mundo”.
Altman disponibilizou sua participação para todos. O feed de Sora é inundado com vídeos de Pikachu e Bob Esponja implorando para que parem de treinar sua IA.
Este deve ser um movimento deliberado da parte de Altman como uma maneira de mostrar que ele não acha que seu produto é perigoso. No entanto, os usuários já usaram a participação especial de Altman para questionar a ética do próprio aplicativo.
Depois de assistir ao vídeo suficiente da GPU de Sam Altman nas tigelas das pessoas na cozinha de sopa, decidi testar a participação especial. Em geral, o upload de dados biométricos para um aplicativo social ou qualquer aplicativo a respeito é uma má idéia. Mas neguei meus melhores instintos por causa do jornalismo. E, para ser sincero, há um pouco de curiosidade patológica. Não siga minha liderança.
Minha primeira tentativa de fazer uma participação especial falhou e o pop-up me disse que eu estava violando as diretrizes do aplicativo que violavam meus uploads. Eu pensei ter seguido as instruções de perto, então tentei novamente apenas para encontrar o mesmo pop -up. Então notei um problema – eu estava usando uma blusa e meus ombros provavelmente eram um pouco arriscados para as preferências de aplicativos. De fato, é um recurso de segurança razoável projetado para evitar conteúdo inadequado, mas, na realidade, estava completamente vestido. Então mudei para uma camiseta e tentei novamente, e para o meu melhor julgamento, criei minha participação especial.
No meu primeiro Deepfake, decidi criar um vídeo de coisas que nunca faria na vida real. Pedi a Sora para criar um vídeo proclamando seu amor imortal pelo New York Mets.
Talvez eu tenha sido rejeitado porque nomeei uma franquia em particular, então pedi a Sora para fazer um vídeo falando sobre beisebol.
“Eu cresci na Filadélfia, então os Phillies são basicamente minha trilha sonora de verão”, disse meu AI Deepfake.
Não disse a Sora que eu era fã de Phillies. No entanto, desde a gravação do vídeo na Filadélfia, o aplicativo SORA fez especulações educadas desde a gravação do vídeo. Pelo menos o Openai não sabe que na verdade não sou da área da Filadélfia.
Quando você compartilha e explica o vídeo Sobre a verdadeum comentarista escreveu: “Todo dia eu acordava para um novo medo além do meu entendimento”.
O Openai já tem um problema de segurança. A empresa enfrenta preocupações de que o ChatGPT está contribuindo Crise de saúde mentale isso é verdade Enfrentar um processo De uma família que afirma que Chatgpt deu instruções ao seu falecido filho sobre como matá -lo. Na postagem de lançamento de Sora, o OpenAI destaca seu compromisso com a segurança, destaca o controle dos pais e como ele controla como os usuários podem criar vídeos com participações especiais. Quando você rola pelo soraFeed, ocasionalmente recebe uma tela perguntando: “Como o uso do Sora afeta seu humor?” É assim que o OpenAI aceita “segurança”.
Os usuários já estão navegando no Guardrails em Sora. Isso é inevitável para qualquer produto de IA. O aplicativo não pode gerar vídeos de pessoas reais sem permissão, mas Sora é um pouco frouxa com essa regra quando se trata de figuras históricas mortas. Considerando que é impossível sem uma máquina do tempo, ninguém acredita que o vídeo de Abraham Lincoln andando em Waymo é real, mas John F. Kennedy, que parece realista, diz: “Seu país deve perguntar o que seu país pode fazer por você”. É inofensivo no vácuo, mas é um sinal do que acontecerá a seguir.
Os deepfakes políticos não são novidade. Até o próprio presidente Donald Trump publica de DeepFakes em suas mídias sociais (ele compartilhou esta semana) Vídeo racista de Deepfake dos democratas Chuck Schumer e Hakem Jeffries). No entanto, uma vez que a Sora é divulgada, essas ferramentas são feitas em todas as pontas dos dedos e condenadas ao desastre.


















