Quando eu era pequena, não havia nada mais assustador do que estranhos.
No final da década de 1980 e início da década de 1990, os nossos pais, os especiais de televisão e os professores diziam às crianças que havia estranhos por aí que queriam magoar-nos. “Perigo estranho” estava por toda parte. Foi uma lição bem intencionada, mas os riscos eram grandes demais: A maior parte do abuso e da exploração infantil é perpetrada por pessoas que as crianças conhecem. É muito raro que crianças sejam abusadas ou exploradas por estranhos.
Raro, mas não impossível. Eu sei, porque fui abusado sexualmente por estranhos.
Dos cinco aos 13 anos, fui ator infantil. E embora ultimamente tenhamos ouvido muitas histórias de terror sobre incidentes abusivos acontecendo com atores infantis nos bastidores, sempre me sinto seguro durante as filmagens. Os sets de filmagem eram locais altamente regulamentados onde as pessoas queriam trabalhar. Meus pais me apoiaram e eu estava cercado por diretores, atores e professores de estúdio que entendiam e se preocupavam com as crianças.
A única maneira de mostrar negócios Fez Ao me colocar aos olhos do público, fui colocado em perigo. Qualquer crueldade e exploração que enfrentei quando criança artista estava nas mãos do público.
“Hollywood joga você na piscina”, sempre digo às pessoas, “mas é o público que coloca sua cabeça debaixo d’água”.
Antes de eu estar no ensino médio, minha imagem foi usada em material de abuso sexual infantil (CSAM). Apareci em sites de fetiche e usei Photoshop para pornografia. Pessoas mais velhas me enviaram cartas assustadoras. Eu não era uma garota bonita – minha idade estranha variava entre 10 e 25 anos – e atuava quase exclusivamente em filmes familiares. Mas eu era uma figura pública, então tive acesso fácil. É isto que os predadores sexuais infantis procuram: acesso. E nada me tornou mais acessível do que a Internet.
Não importa que essas imagens “não sejam minhas” ou que os sites de fetiche sejam “tecnicamente” legais. Foi uma experiência dolorosa e violenta; Eu esperava que nenhuma outra criança tivesse que passar por esse pesadelo. Quando me tornei adulto, comecei a me preocupar com as outras crianças que vieram depois de mim. As estrelas da Disney, o elenco de Stranger Things, os pré-adolescentes dançando TikTok e os vloggers familiares sorrindo nos canais do YouTube? Eu não tinha certeza se queria saber a resposta.
Quando a IA genérica começou a ganhar impulso há alguns anos, temi o pior. Eu tinha ouvido histórias de “deepfakes” e sabia que a tecnologia estava se tornando cada vez mais realista.
Então aconteceu – ou pelo menos o mundo viu acontecer. A IA generativa já foi usada muitas vezes Criar imagens sexualmente explícitas de mulheres adultas sem o seu consentimento. Isso aconteceu com meus amigos. Mas recentemente foi relatado que a ferramenta de IA do X, Grok, foi usada abertamente, Para gerar imagens nuas de um ator menor de idade. Algumas semanas atrás, uma garota foi expulsa da escola por bater em seu colega de classe que supostamente fez pornografia falsa com ela, De acordo com os advogados de sua família. Ela tinha 13 anos, mais ou menos a mesma idade que eu, quando as pessoas faziam imagens sexuais falsas de mim.
Em julho de 2024, A Internet Watch Foundation encontrou mais de 3.500 imagens de CSAM gerado por IA em um fórum da dark web. Quantos milhares mais foram feitos no ano e meio desde então?
A IA generativa reinventa Stranger Danger. E desta vez o medo é justificado. Tornou-se agora muito fácil explorar sexualmente qualquer criança cujo rosto seja publicado na Internet. Milhões de crianças podem ser forçadas a viver o mesmo pesadelo.
Para evitar a ameaça de um apocalipse deepfake, precisamos observar como a IA é treinada.
O matemático e ex-pesquisador de segurança de IA Patrick LaVictoire diz que a IA generativa “aprende” por meio de um processo repetido de “olhar, fazer, comparar, atualizar, repetir”. Ele cria modelos com base naquilo que lembra, mas não consegue lembrar de tudo, então tem que procurar padrões e basear suas respostas nisso. “A conexão que é útil torna-se mais forte”, diz LaVictoire. “Qualquer coisa menos, ou ativamente inútil, é eliminada.”
O que a IA genérica pode criar depende dos materiais nos quais a IA foi treinada. UM Estude na Universidade de Stanford Em 2023, descobriu-se que um dos conjuntos de dados de treinamento mais populares já continha mais de 1.000 exemplos de CSAM. Links para CSAM desde então foi removido do conjunto de dadosMas os pesquisadores ressaltaram que outra ameaça é o CSAM criado pela combinação de imagens de crianças com imagens pornográficas, o que só é possível quando ambas estão nos dados de treinamento.
Google E OpenAI Afirmam que tomam medidas de segurança para se protegerem contra a criação de CSAM: por exemplo, cuidando dos dados utilizados para treinar as suas plataformas de IA. (Também vale a pena notar que muitos atores de filmes adultos e profissionais do sexo tiveram suas imagens tiradas para IA. sem o seu consentimento.)
LaVictoire diz que a IA generativa não tem como distinguir entre comandos inofensivos e bobos como “desenhar a imagem de um samurai Jedi” e comandos prejudiciais como “fazer esta celebridade tirar a roupa”. Portanto, outra medida de segurança inclui um tipo diferente de IA que atua de forma semelhante a um filtro de spam, que pode impedir que essas perguntas sejam respondidas. Parece que o xAI, que executa o Grok, ignora esse filtro.
E o pior ainda pode estar por vir: meta E outras empresas propôs que os futuros modelos de IA serão de código aberto. “Código aberto” significa que qualquer pessoa pode acessar o código por trás dele, baixá-lo e editá-lo como desejar. O que normalmente é maravilhoso no software de código aberto – dar aos utilizadores a liberdade de criar coisas novas, priorizando a criatividade e a colaboração em detrimento do lucro – pode ser um desastre para a segurança das crianças.
Depois que alguém baixar uma plataforma de IA de código aberto e torná-la sua, não haverá medidas de segurança, nenhum bot de IA dizendo que não pode ajudar com sua solicitação. Qualquer um pode “ajustar” seu próprio gerador de imagens pessoais usando imagens explícitas ou ilegais e criar seus próprios geradores infinitos de CSAM e “pornografia de vingança”.
parece meta Recusou-se a tornar sua nova plataforma de IA de código aberto. Talvez Mark Zuckerberg tenha se lembrado disso Ele quer ser como o imperador romano AugustoE se continuar nesse caminho, poderá ser mais lembrado como o Oppenheimer do CSAM.
Alguns países já estão lutando contra isso. A China foi o primeiro país a implementá-lo Uma lei que exige que o conteúdo de IA seja rotulado como tal. A Dinamarca está a trabalhar numa legislação que concederia aos cidadãos direitos de autor sobre a sua aparência e voz e imporia multas às plataformas de IA que não os respeitassem. Em outras partes da Europa, e na Grã-BretanhaImagens de pessoas podem estar protegidas pelo Regulamento Geral de Proteção de Dados (RGPD).
As perspectivas nos Estados Unidos parecem ser muito terríveis. As reivindicações de direitos autorais não vão ajudar, porque quando um usuário carrega uma imagem em uma plataforma, ele pode usá-la como quiser; Está em quase todos os termos do contrato de serviço. com Ordem Executiva Contra a Regulamentação da IA Genérica E empresas como xAI Assinatura de contrato com o Exército dos EUAO governo dos EUA mostrou que ganhar dinheiro com a IA é mais importante do que manter os cidadãos seguros.
Lá É “Recentemente, houve algumas leis que criminalizam esta manipulação digital”, diz Akiva Cohen, um litigante da cidade de Nova Iorque. “Mas, ao mesmo tempo, muitas dessas leis são provavelmente excessivamente restritivas. O que Claro que eles cobrem.
Por exemplo, embora a criação de uma deepfake de alguém que a mostre nua ou envolvida num ato sexual possa ser motivo para uma acusação criminal, usar a IA para colocar uma mulher – e possivelmente uma menina menor de idade – num biquíni provavelmente não o seria.
“Muito disso permanece conscientemente no lado ‘terrível, mas legal’ da linha”, diz Cohen.
Talvez isto não seja criminoso – isto é, um crime contra o Estado, mas Cohen argumenta que pode ser uma responsabilidade civil, uma violação dos direitos de outra pessoa, exigindo restituição à vítima. Ele sugere que “pertence aluz falsaInvasão de delito de privacidade, um erro civil em que são feitas alegações ofensivas sobre uma pessoa, retratando-a falsamente, “caracterizando alguém de uma forma que sugere que ele está fazendo algo que não fez”.
“A maneira de realmente impedir esse tipo de conduta é impor responsabilidade aos empresas Eles estão permitindo isso”, diz Cohen.
Há precedente legal para isso: aumentar ato em Nova York, e projeto de lei do Senado 53 Na Califórnia, por exemplo, as empresas de IA podem ser responsabilizadas por danos ocorridos antes de um determinado ponto. x, enquanto isso, bloqueará o grok agora Criando imagens sexualizadas de pessoas reais no palco. mas isso Parece que houve uma mudança na política Não se aplica a aplicativos Grok independentes.
Mas Josh Saviano, ex-advogado em Nova York e ex-ator infantil, acredita que ações mais imediatas precisam ser tomadas além da legislação.
“É assim que os esforços de lobby e os nossos tribunais serão tratados”, diz Saviano. “Mas até que isso aconteça, há duas opções: abster-se completamente, o que significa remover toda a sua pegada digital da Internet… ou você precisa encontrar uma solução tecnológica.”
Garantir a segurança dos jovens é de suma importância para Saviano, que conhece pessoas que tiveram deepfakes, E – como ex-ator infantil – sabe um pouco sobre como perder o controle Da minha própria narrativa. Saviano e sua equipe estão trabalhando em uma ferramenta que pode detectar e notificar as pessoas quando suas imagens ou trabalhos criativos estão sendo copiados. Ele diz que o lema da equipe é: “Proteja as crianças”.
Independentemente de como isso aconteça, acredito que o público terá de fazer grandes esforços para se proteger contra esta ameaça.
Há muitas pessoas que estão começando a se sentir conectadas com seus chatbots de IA, mas para a maioria das pessoas, as empresas de tecnologia nada mais são do que serviços públicos. Podemos preferir um aplicativo a outro por motivos pessoais ou políticos, mas poucas pessoas sentem profunda lealdade às marcas de tecnologia. Empresas de tecnologia, e especialmente plataformas de mídia social como Meta e xSeria bom lembrar que eles são um meio para atingir um fim. E se alguém como eu – que esteve no Twitter o dia todo, todos os dias, durante mais de uma década – pode desistir, qualquer um pode desistir.
Mas o boicote não é suficiente. Precisamos exigir que as empresas que permitem a criação do CSAM sejam responsabilizadas. Precisamos exigir legislação e salvaguardas técnicas. Também precisamos examinar nossas próprias ações: ninguém quer pensar que, se compartilharem fotos de seus filhos, essas imagens poderão acabar em CSAM. Mas este é um risco contra o qual os pais devem proteger os seus filhos mais novos e alertar os seus filhos mais velhos.
Se a nossa obsessão pelo perigo de estranhos mostra alguma coisa, é que a maioria de nós quer acabar com o perigo e o abuso de crianças. Chegou a hora de provar isso.


















