CháA velocidade com que a IA está a mudar as nossas vidas é surpreendente. Ao contrário das revoluções tecnológicas anteriores – rádio, fissão nuclear ou Internet – os governos não estão a liderar o caminho. Sabemos que a IA pode ser perigosa; Chatbots aconselham adolescentes sobre suicídio e em breve poderão dar instruções também como fazer armas biológicas. Ainda assim, a Federal Drug Administration não tem equivalente em testar novos modelos de segurança antes da divulgação pública. Ao contrário da indústria nuclear, as empresas muitas vezes Violações ou acidentes perigosos não precisam ser divulgados. O poder de lobby da indústria tecnológica, a polarização paralisante de Washington e a enorme complexidade de uma tecnologia tão poderosa e em rápida evolução mantiveram a regulamentação federal sob controle. As autoridades europeias enfrentam uma resistência às regras que, segundo alguns, prejudicarão a competitividade do continente. Embora muitos estados dos EUA estejam testando leis sobre IA, eles operam em uma colcha de retalhos improvisada Donald Trump tentou Para invalidá-los.

Os líderes de plataformas de IA como ChatGPT da OpenAI e Gemini do Google dizem que se preocupam com a segurança. Mas capturar o futuro da IA ​​significa investir milhares de milhões de dólares em modelos que mesmo os seus criadores não compreendem totalmente, e fazer escolhas como adicionar publicidade – e as capacidades do Pentágono. Agora exigindo da Antrópica – O que aumenta o risco. A Anthropic, que se autodenomina a empresa de IA de fronteira mais honesta, Seu modelo diz “Imagine que uma equipe de antropólogos experientes e atenciosos” seja treinada em como avaliar a ajuda contra danos potenciais. A directiva faz eco às críticas feitas há anos às empresas do Vale do Silício que moldam a vida dos utilizadores em todo o mundo a partir de salas de reuniões isoladas. Os consumidores não se sentem confiantes de que estão em boas mãos. Totalmente 77% americano No ano passado, a pesquisa disse que a IA poderia representar uma ameaça para a humanidade.

Não estamos presos entre uma forte regulamentação governamental e a ilusória esperança de que as empresas mais poderosas da história sejam a sua própria polícia. Pelo menos até que os legisladores ajam, a supervisão independente proporciona a capacidade de julgar entre o potencial da IA ​​e os seus perigos. Ao adoptarem uma supervisão independente, as empresas de IA podem demonstrar que se preocupam suficientemente com a confiança do público para estarem dispostas a lutar por ela.

A lógica por trás do monitoramento independente é simples. Independentemente das boas intenções dos executivos empresariais, os seus deveres para com os accionistas e investidores ditam a forma como estabelecem um compromisso entre custos e segurança, estimulando receitas e lucros. Embora as considerações de longo prazo sobre a reputação corporativa, a lealdade do cliente e a ética possam funcionar como obstáculos, vencer a corrida da IA ​​exige apetite pelo risco. O cálculo tardio de como as redes sociais podem alimentar assassinatos, interferir nas eleições e degradar a saúde mental dos jovens mostra como o poder inebriante da tecnologia pode obscurecer os sinais de alerta.

A supervisão independente da IA ​​proporciona a capacidade de descobrir, analisar e abordar os seus riscos, dando aos defensores e às comunidades um pouco mais de controlo sobre a forma como estas tecnologias remodelam a sociedade. A mídia social fornece um exemplo. Em 2020, machucado Alegações de que isso ajudou a alimentar Crise Rohingya em Mianmar, Meta (então Facebook) criou um conselho de supervisãoA expectativa é que a empresa saia da berlinda. No início do ano seguinte, a empresa adotou uma política Comprometidos em cumprir as leis de direitos humanos. Embora o conselho, agora com cinco anos, tenha ficado aquém das expectativas de algumas pessoas de que poderia servir como “o Supremo Tribunal do Facebook”, o seu registo oferece lições importantes sobre as perspectivas de uma supervisão independente e eficaz da IA, e por que razão é importante.

A inspeção exige abordagens diversas. Como outras empresas líderes de IA, a Meta tem usuários em todos os continentes povoados. Decidir o que poderiam ou não postar devido à segurança do campus de Menlo Park deixou pontos cegos e gerou indignação. Os 21 membros do Conselho de Supervisão trazem amplo conhecimento cultural e empresarial para julgar questões delicadas de moderação de conteúdo (como se um vídeo violento deve ser compartilhado como notícia ou removido como um insulto à dignidade da vítima). Conselho, cujos membros têm Viveu em mais de 27 paísesInclui conservadores e liberais, jornalistas, juristas, um antigo primeiro-ministro da Dinamarca e um galardoado com o Prémio Nobel da Paz.

O conselho de supervisão usa os próprios “Padrões da Comunidade” do Meta para avaliar se as postagens violam regras, incluindo proibições de bullying ou apoio a terroristas. segura o tabuleiro meta Pelo seu compromisso de defender o direito internacional dos direitos humanos, incluindo o artigo 19.º do Pacto Internacional sobre os Direitos Civis e Políticos, que consagra a liberdade de expressão. As empresas de IA devem assumir o mesmo compromisso e estabelecer supervisão para garantir que o cumprem. Ao contrário da Primeira Emenda ou do “direito ao esquecimento” online da UE, a legislação em matéria de direitos humanos proporciona uma moeda comum através das fronteiras. Os seus critérios fornecem formas de raciocínio para a tomada de decisões sobre IA, tais como se a recusa de um bot em responder a uma pergunta nega injustificadamente o direito de um utilizador à informação, ou se a reutilização de dados do utilizador viola os direitos de privacidade.

Acesso, consulta e transparência são fundamentais. O Conselho de Supervisão aceita apelos do público, anuncia os casos que seleciona para revisão, convida comentários públicos e convoca sessões com especialistas e comunidades interessadas. Emitiu mais de 200 decisõesS Em pareceres escritos detalhados que foram citados por tribunais de todo o mundo.

Um órgão de supervisão voluntária é tão forte quanto os poderes que lhe são conferidos pela sua empresa-mãe. Embora o conselho de supervisão queira poderes mais amplos, ele deu crédito à Meta por ir muito além dos conselhos consultivos leves que outros players de tecnologia convocaram e dissolveram periodicamente. O conselho de supervisão do Meta tem jurisdição para decidir se um conteúdo específico permanece ativo ou desativado, embora exercer essa autoridade em postagens individuais possa ser como combater um incêndio, apagando as brasas. O seu impacto mais consequente reside na seleção de casos emblemáticos de conteúdo erróneo, na apresentação pública da fundamentação das decisões e na emissão de recomendações às quais a Meta deve responder. Segundo o relatório, a META implementou 75% das mais de 300 recomendações do conselho. em dezembroO que levou a mudanças significativas para bilhões de usuários.

Isso inclui o fornecimento de notificações sobre qual política o usuário é acusado de violar quando o conteúdo desaparece, garantindo que provocações retóricas e sátiras não sejam removidas como ameaças e garantindo que a empresa aumente os recursos em crises como desastres naturais e conflitos armados. O conselho também emite opiniões consultivas detalhadas sobre questões políticas mais amplas, como se a Meta deve estender a clemência para violações de políticas por cartazes de alto perfil ou quanta desinformação relacionada à Covid deve ser removida após o fim da pandemia. Embora o conselho atue de forma independente na tomada de decisões e recomendações, ele depende do Meta para obter informações importantes, como se o conteúdo específico foi determinado por humanos ou por automação e o que exatamente deu errado quando o conteúdo foi removido acidentalmente. As empresas de IA devem fornecer pelo menos essa visibilidade para que a supervisão tenha algum significado.

Como sempre, o dinheiro é importante. A META coloca o financiamento do Conselho de Supervisão num fundo fiduciário durante um período de tempo, para que não possa ser cortado da noite para o dia. Mas recursos mais diversificados e garantidos aumentariam a independência do conselho. Monitorar tecnologia de ponta custa dinheiro. Isto requer financiamento para pessoal especializado e consultores que tragam conhecimentos culturais e linguísticos específicos para ajudar na análise e na tomada de decisões. No entanto, dadas as centenas de milhares de milhões de investimentos em IA, o custo de uma supervisão forte também é insignificante.

A IA está dominando nossas salas de aula, faculdades e corporações. O mínimo que as empresas de IA podem fazer é fornecer supervisão independente para garantir que não usurpam os nossos direitos, consciente ou inconscientemente.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui