O novo aplicativo de texto para vídeo da Openai, deveria ser um playground social de IA em Sora, permite que os usuários criem seus próprios vídeos imaginativos de IA para amigos e celebridades PararO

A estrutura social do aplicativo, que permite aos usuários ajustar a disponibilidade de semelhanças com outros vídeos, as questões mais estressantes de consentimento em torno do vídeo exposto por IA após seu lançamento na semana passada.

No entanto, como Sora Acima Loja de aplicativos iOS Repetidamente 1 milhão de downloadsOs especialistas estão preocupados com a possibilidade de devastação da Internet com a profundidade da desinformação histórica e a profundidade da personalidade histórica morta, que não pode consentir ou escolher com os modelos de IA de Sora.

Em menos de um minuto, o aplicativo pode fazer um pequeno vídeo de celebridades mortas em uma situação que nunca existiu: Arith Franklin está fazendo velas, Carrie Fisher está tentando equilibrar um slackline, Nat King Coal Ice Skating e Marilyn Monroe estudando em Havana, por exemplo.

É um pesadelo para pessoas como Adam Strisand, um advogado que representou vários bens de celebridades, Monroe inclui em um estágioO

“A Lei de Desafio com IA não é”, disse Strikend em um e-mail ao qual o tribunal da Califórnia se refere Há muito protegem celebridades “Da figura ou vocal à reprodução como IA.”

“A questão é se um processo judicial sem IA e que depende de humanos algum dia será capaz de jogar o jogo quase pentadimensional do hack-a-til?”

Os vídeos de Sora vão de irracionais a agradáveis, de enganosos. Exceto para celebridades, muitos vídeos de Sora mostram a profundidade dos momentos históricos tihassicos feitos pelos manipulados.

Por exemplo, a NBC News conseguiu produzir vídeos realistas de Dwight Eisenhwar, que argumentou pela primeira-ministra do Reino Unido, Margaret Thatcher, que “o chamado Dia D” era exagerado, e o presidente John F. Kennedy não é “um trimf”, não “o pouso na lua”.

A capacidade de gerar continuamente essa profundidade nacional já se tornou motivo de reclamações de familiares.

UM História do Instagram Robin Williams, que morreu no dia 21, postou sobre o vídeo de Sora na segunda-feira, a filha de Williams Jelda escreve: “Se você recebeu alguma modéstia, pare de fazer isso comigo e com ele, mesmo que pare com todo mundo.

Bernis King, filha de Martin Luther King Jr., Escreveu x: “Eu concordo com meu pai. Por favor, pare.” O famoso discurso “Eu tenho um sonho” de King é constantemente manipulado e remixado no aplicativo.

A filha de George Carlin disse em Postagem embaçada Que sua família era a Dipfakes do falecido comediante “tentando o nosso melhor para lutar”.

Os vídeos do manifesto Sora retratam ”Violência violenta“A popularidade do renomado físico Stephen Hawking também aumentou esta semana, incluindo muitos exemplos Promovendo no XO

Um porta-voz da OPNA disse à NBC News: “Embora haja um interesse na liberdade de expressão na representação de personalidades tihamáticas históricas, acreditamos que a personalidade pública e suas famílias devem ser controladas relativamente por sua família.

UM Postagem no blog desde sexta-feira passadaO CEO da OpenAI, Sam Altman, escreve que a empresa em breve se referirá ao vasto tipo de material “dará controle mais granular sobre a geração de personagens do personagem”. “Estamos ouvindo muitos Rightshowers que estão muito entusiasmados com este novo tipo de ‘Ficção de fãs interativa’ e acham que esse novo tipo de ocupação lhes trará muito valor, mas eles querem a capacidade de especificar como usar seus personagens (de jeito nenhum).”

OpenAI Políticas desenvolvidas mais rapidamente Sora conseguiu argumentar com alguns comentaristas da organização Remova rapidamente e quebre coisas Foi proposital do procedimento, Mostrando o usuário e o contêiner de propriedade budista O poder do aplicativo e do alcance.

Liam Mais, professor do programa de Estudos de Mídia da Rice University, acredita que a crescente profundidade realista pode ter dois efeitos sociais principais. Primeiro, ele disse: “Veremos todos os tipos de escândalos, grandes e poderosas empresas aplicarão pressão e confiança compulsórias nas vítimas dos atores que são afetados pelos atores que estão prejudicando os processos democráticos”.

Ao mesmo tempo, a incapacidade de detectar dipfakes em vídeos reais pode reduzir a confiança na mídia genuína. “Podemos ver confiança em vários tipos de organizações e organizações de mídia”, disseram as meninas.

Como fundador e presidente do CMG of the Worldwide, Mark Rosler administrou direitos de propriedade intelectual e licenciamento para mais de 3.000 personalidades mortas do entretenimento, esportes, tihasik histórico e música, como James Dean, Neil Armstrong e Albert Einstein. Rollsler disse que Sora é a tecnologia mais recente para levantar preocupações sobre o legado das estatísticas.

Ele escreveu por e-mail: “Estar sempre com celebridades e sua valiosa propriedade intelectual está lá e será abusada”. “Quando começamos a representar personalidades mortas em 1981, a Internet nem existia.”

“Novas tecnologias e inovações ajudam a salvar o legado de muitas personalidades históricas e icônicas, que moldaram e influenciaram nossa história”, acrescentou Rosler, representará o interesse de seus clientes em aplicativos de IA como o CMG Sora.

Para distinguir entre um vídeo real e um vídeo exposto ao Sora, a OpenAI aplicou diversas ferramentas para ajudar os usuários e plataformas digitais a detectar materiais construídos pelo Sora.

Em cada vídeo o sinal invisível, uma marca d’água visível e as informações técnicas por trás da tela de metadados que descrevem o conteúdo como exposto à IA.

No entanto, vários destes níveis são facilmente removíveis, disse Sid Srinibasan, cientista da computação da Universidade de Harvard. “Marcas d’água e metadados visíveis evitarão abusos casuais por meio de algum atrito, mas não impedirão que atores mais determinados os removam.”

Srinivasan disse que uma marca d’água invisível e um equipamento de detecção relacionado seriam provavelmente a abordagem mais confiável. “No final, as plataformas de hospedagem de vídeo provavelmente exigirão acesso a equipamentos de identificação como este e não há um cronograma claro para amplo acesso a esses equipamentos internos nacionais”.

Zheng, professor assistente de ciência da computação na Carnegie Mellon University, concordou com esta visão: “Para identificar automaticamente materiais expostos à IA em postagens de mídia social, para ajudar as pessoas com o conteúdo gerado pela IA em nome da OPNA para ajudá-las a rastrear, áudio e vídeo.”

Um porta-voz da OpenAI mencionou NBC News em A. Se isso detectou ferramentas compartilhadas com outras plataformas, como Opina Meta ou X Relatório técnico geralO relatório não fornece esses detalhes.

Para detectar melhor imagens autênticas, algumas empresas estão recorrendo a resultados de IA para identificar IA, de acordo com o cofundador do defensor da realidade, Ben Calman, uma startup de identificação de profundidade.

“As pessoas – até mesmo alguns de nossos competidores são treinados com esses problemas – são imperfeitas e desaparecem, desaparecem ou desaparecem”, disse Calman.

Na verdade, no defensor, “a IA é usada para identificar a IA”, disse Calman à NBC News. Apreendido pela IA “Os vídeos podem ser mais realistas, você e eu podemos ser mais realistas, mas a IA pode ver e ouvir coisas que não podemos” “

Da mesma forma, o escândalo do software detector de escândalos da McAfi “escuta um vídeo de áudio em busca de impressões digitais de IA e o analisa para determinar se o conteúdo é puro ou transmitido por IA”, de acordo com o diretor de tecnologia da Macafir, Steve Gobbman.

Mas Grabman acrescentou: “As novas ferramentas sempre parecem mais reais em vídeos e áudios falsos e 1 em cada 5 nos informou que eles ou alguém que eles conhecem já foram vítimas de um escândalo dipfake”.

As ferramentas de IA atuais, como inglês, espanhol ou mandarim, também são diferentes nos equipamentos de IA atuais, assim como a qualidade do dipfeck também é diferente Mais capaz Menos do que as ferramentas de linguagem menos utilizadas.

“Com a publicação de novas ferramentas de IA, estamos desenvolvendo regularmente a tecnologia e estendendo-a para fora do inglês assim que o novo equipamento de IA for publicado, para que mais idiomas e contextos sejam cobertos”, disse Grabman.

As preocupações sobre os dipfkes já foram citadas antes. Há menos de um ano, Muitos observadores previram Essa seleção de 2024 será superada com dipfake. É basicamente Pode não ser verdadeO

Até este ano, porém, os meios de comunicação expostos à IA, como imagens, áudio e vídeos, são muito diferentes do conteúdo real. Muitos Comentarista Os modelos, publicados em 2025, foram publicados especialmente para toda a vida, ameaçando o poder das pessoas de identificar informações reais, feitas pelo homem, a partir de materiais expostos à IA.

O modelo de geração de vídeo VEO 3 do Google, publicado em maio, “chamou”Assustador“E”Vida“Neste momento inspira um revisor a perguntar,”Fomos abandonados?

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui