IA declive Infecta todas as plataformas de mídia social, imagens sem alma para vídeo estranho e texto superficialmente legível. De acordo com uma pesquisa exclusiva da CNET, a maioria dos adultos norte-americanos que usam as redes sociais (94%) acreditam que encontram conteúdo criado ou modificado pela IA, mas apenas 44% dizem estar confiantes de que conseguem distinguir entre fotos e vídeos reais e aqueles gerados pela IA. Isso é um grande problema.

Há muitas maneiras pelas quais as pessoas podem lutar contra o conteúdo de IA. Como é mais difícil do que nunca confiar em nossos olhos, algumas soluções estão focadas em rotular melhor o conteúdo gerado por IA. Dos 2.443 entrevistados que usam mídias sociais, metade (51%) acha que os rótulos de IA precisam ser melhorados online. Outros (21%) acreditam que o conteúdo gerado por IA deveria ser completamente banido das redes sociais. Apenas um pequeno grupo de entrevistados (11%) disse considerar o conteúdo de IA útil, informativo ou interessante.

A IA não vai a lado nenhum e está a remodelar fundamentalmente a Internet e a nossa relação com ela. Nossa pesquisa mostra que ainda temos um longo caminho a percorrer para considerá-lo.

Principais conclusões

  • A maioria dos adultos norte-americanos que utilizam as redes sociais (94%) acredita que encontra conteúdo de IA nas redes sociais, mas muito menos (44%) consegue diferenciar com segurança entre imagens e vídeos reais e falsos.
  • Embora muitos adultos norte-americanos (72%) afirmem que tomam medidas para determinar se uma imagem ou vídeo é real, outros, especialmente os Baby Boomers (36%) e os da Geração X (29%), não fazem nada.
  • Metade dos adultos norte-americanos (51%) acredita que o conteúdo gerado e editado pela IA precisa de uma rotulagem melhor.
  • Um em cada cinco (21%) acha que o conteúdo de IA deveria ser banido nas redes sociais, sem exceção.

Os adultos dos EUA não se sentem capazes de discernir a mídia de IA

Na era da IA, ver para crer. Ferramentas como OpenAI Sora gerador de vídeo e google banana nano Os modelos de imagem permitem que os chatbots montem suavemente sequências de texto que parecem ter sido escritas por um ser humano real, criando uma mídia hiper-realista.

Não é de admirar, então, que um quarto (25%) dos adultos norte-americanos digam que não têm confiança na sua capacidade de distinguir entre imagens e vídeos reais e aqueles gerados pela IA. As gerações mais velhas, incluindo os baby boomers (40%) e os da Geração X (28%), são as menos confiantes. Se você não tem amplo conhecimento ou experiência com IA, pode estar preocupado com sua capacidade de identificá-la com precisão.

As pessoas agem para verificar o conteúdo de diferentes maneiras

A capacidade da IA ​​de imitar a vida real torna ainda mais importante verificar o que você está vendo online. Quase três em cada quatro adultos norte-americanos (72%) dizem que tomariam medidas para determinar se uma imagem ou vídeo é genuíno se tivessem dúvidas sobre isso, sendo a Geração Z a mais propensa a fazê-lo (84%). O método mais óbvio e comum é examinar atentamente imagens e vídeos em busca de pistas visuais e artefatos. Mais da metade (60%) dos adultos norte-americanos fazem isso.

Mas a inovação em IA é uma faca de dois gumes. O modelo melhorou rapidamente para eliminar erros anteriores nos quais se baseava para identificar conteúdo gerado por IA. Um travessão nunca foi um sinal confiável de IA, mas dedos extras em uma imagem ou erros de continuidade em um vídeo já foram sinais de alerta notáveis. Os modelos de IA mais recentes normalmente não cometem esses erros comuns. Portanto, todos nós precisamos nos esforçar um pouco mais para determinar o que é real e o que é falso.

ai-slop-cnet-survey-actions-taken.png

Você pode identificar o conteúdo de IA procurando discrepâncias e rótulos.

Cole Kang/CNET/Getty Images

À medida que os indicadores visuais da IA ​​desaparecem, outras formas de validação de conteúdo tornam-se cada vez mais importantes. Os próximos dois métodos mais comuns são verificar rótulos ou divulgações (30%) e encontrar conteúdo em outros lugares online, como em sites de notícias ou pesquisas reversas de imagens (25%). Apenas 5% dos entrevistados profundamente falso Ferramentas de descoberta ou sites.

No entanto, 25% dos adultos nos EUA não fazem nada para determinar se o conteúdo que veem online é autêntico. A falta de ação é maior entre os baby boomers (36%) e a geração X (29%). Isto é alarmante. Já vimos que a IA é uma ferramenta eficaz. abuso e fraude. Compreender a origem das postagens e do conteúdo é um primeiro passo importante na navegação na Internet, onde tudo pode ser alterado.

Metade dos adultos dos EUA quer melhores rótulos de IA

Muitas pessoas estão trabalhando em soluções para lidar com o ataque violento da IA. A rotulagem é uma área de grandes oportunidades. A rotulagem depende de os usuários das redes sociais revelarem que suas postagens foram feitas com a ajuda da IA. Isso também pode ser feito nos bastidores por meio de plataformas de mídia social, mas é um pouco mais difícil e os resultados podem ser imprevisíveis. Talvez seja por isso que 51% dos adultos nos EUA acreditam que precisamos melhorar a rotulagem do conteúdo de IA, incluindo deepfakes. O apoio foi maior entre a geração Millennials e a geração Z, com 56% e 55%, respectivamente.

atitude-ai-slop-cnet-survey.png

Apenas alguns (11%) consideraram o conteúdo de IA útil, informativo ou interessante.

Cole Kang/CNET/Getty Images

Outras soluções visam controlar a grande quantidade de conteúdo de IA compartilhado nas redes sociais. Todas as principais plataformas permitem conteúdo gerado por IA, desde que não viole as diretrizes gerais de conteúdo. Por exemplo, não é ilegal ou abusivo. No entanto, algumas plataformas introduziram ferramentas para limitar a quantidade de conteúdo gerado por IA que aparece no seu feed. Expandindo o Pinterest aquele filtro No ano passado, o TikTok ainda está funcionando, teste Alguns são únicos. A ideia é dar a todos a capacidade de permitir ou excluir conteúdo gerado por IA de seus feeds.

No entanto, 21% dos entrevistados acreditam que o conteúdo de IA deveria ser completamente proibido nas redes sociais, sem exceções. Este número é maior entre a Geração Z, com 25%. Quando questionados se acham que o conteúdo de IA deveria ser permitido, mas estritamente regulamentado, 36% disseram que sim. Esta baixa percentagem pode ser explicada pelo facto de apenas 11% sentirem que o conteúdo de IA proporciona um valor significativo (por exemplo, divertido, informativo, útil, etc.), e 28% dizem que proporciona pouco valor.

Como limitar o conteúdo de IA e identificar potenciais deepfakes

A melhor defesa contra ser enganado pela IA é estar atento e confiar na sua intuição. Se algo parece muito estranho, muito brilhante, muito maravilhoso, provavelmente é verdade. No entanto, existem outras etapas que você pode seguir, como usar ferramentas de detecção de deepfake. Existem muitas opções. Recomendamos começar com Iniciativa de confiabilidade de conteúdoPorque a ferramenta funciona com vários tipos de arquivos diferentes.

Você também pode verificar as contas que compartilharam a postagem em busca de sinais de alerta. O resíduo de IA é frequentemente compartilhado por um grande número de produtores de resíduo, o que pode ser facilmente visto no feed. Estará cheio de vídeos estranhos sem nenhuma continuidade ou semelhança entre eles. Você também pode ver se pessoas que você conhece estão seguindo você ou se a conta não está seguindo mais ninguém (isso é um sinal de alerta). Postagens de spam e links fraudulentos também indicam que a conta não é legítima.

Se você deseja limitar o conteúdo de IA que vê em seus feeds sociais, confira nosso guia para desativá-lo ou silenciá-lo. Meta AI para Instagram e Facebook e filtrar Poste no Pinterest com tecnologia de IA. Se você encontrar conteúdo impróprio, poderá marcar a postagem como não interessante. Isso informa ao algoritmo que você não deseja ver mais postagens como essa. Pode ser desativado fora das redes sociais inteligência da maçãIA pixel e galáxia telefone e gêmeos Pesquisa Google, Gmail, Documentos.

Mesmo com todo esse esforço, você não precisa se sentir tão mal se a IA às vezes te enganar. Como indivíduos, há um limite para o que podemos fazer para combater as ondas crescentes de resíduos de IA. Todos nós podemos entender mal de vez em quando. Até termos um sistema universal para detectar eficazmente a IA, teremos de confiar nas ferramentas que temos e na nossa capacidade de ensinar uns aos outros o que podemos fazer agora.

metodologia

A CNET contratou a YouGov Plc para conduzir a investigação. Todos os números são da YouGov Plc, salvo indicação em contrário. O tamanho total da amostra foi de 2.530 adultos, dos quais 2.443 usaram redes sociais. A pesquisa de campo foi realizada de 3 a 5 de fevereiro de 2026. A pesquisa foi realizada online. Este número é ponderado e representativo de todos os adultos dos EUA (18 anos ou mais).

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui