costumes dos EUA E a Patrulha da Fronteira planeja gastar US$ 225 mil por um ano de acesso. visão clara IA, reconhecimento facial Uma ferramenta para comparar sua foto com bilhões de imagens Coletado da internet.
O contrato expandirá o acesso à ferramenta Clearview para a Divisão de Inteligência da Sede da Patrulha de Fronteira (INTEL) e o Centro Nacional de Targeting, uma divisão que coleta e analisa dados como parte da Patrulha de Fronteira. O que o CBP chama Um esforço organizado para “destruir, degradar ou desmantelar” pessoas ou redes consideradas ameaças à segurança.
O contrato estabelece que o Clearview fornecerá acesso a “mais de 60 mil milhões de imagens públicas” e será utilizado para “direcionamento tático” e “análise estratégica de contra-rede”, indicando que o serviço não se destina a ser dedicado a investigações individuais, mas a ser integrado nas atividades diárias de inteligência dos analistas. O CBP disse que as suas unidades de inteligência utilizam “uma variedade de fontes de inteligência”, incluindo ferramentas comercialmente disponíveis e dados publicamente disponíveis, para identificar pessoas e mapear as suas ligações para atividades de segurança nacional e imigração.
O contrato pressupõe que os analistas irão lidar com dados pessoais sensíveis, incluindo imagens faciais e outros identificadores biométricos, e exige acordos de não divulgação para os contratantes com acesso. Ele não especifica quais tipos de fotos os agentes enviarão, se as pesquisas incluirão cidadãos dos EUA ou por quanto tempo as imagens enviadas e os resultados da pesquisa serão retidos.
O acordo Clearview ocorre no momento em que o Departamento de Segurança Interna enfrenta um escrutínio cada vez maior sobre como o reconhecimento facial é usado em operações federais de aplicação da lei muito além da fronteira, incluindo operações em grande escala em cidades dos EUA envolvendo cidadãos dos EUA. Grupos de liberdades civis e legisladores questionaram se as ferramentas de busca facial estão a ser implementadas como infra-estruturas de inteligência de rotina, em vez de ajuda investigativa limitada, e se as salvaguardas estão a acompanhar a expansão.
Na semana passada, o senador Ed Markey Leis introduzidas Isto proibiria completamente o ICE e o CBP de utilizar tecnologia de reconhecimento facial, alegando preocupações de que incorpora vigilância biométrica sem limites claros, transparência ou consentimento público.
O CBP não respondeu imediatamente às perguntas sobre como o Clearview será integrado aos seus sistemas, que tipos de imagens os agentes podem enviar e se as pesquisas podem incluir cidadãos dos EUA.
O modelo de negócios da Clearview está sob escrutínio porque depende da extração de fotos de sites públicos em grande escala. Estas imagens são convertidas em modelos biométricos sem o conhecimento ou consentimento das pessoas fotografadas.
Clearview também é destaque em lançamentos recentes de produtos do DHS Inventário de Inteligência ArtificialEsta entrada de inventário conecta os pilotos ao Sistema de Verificação de Viajantes do CBP, que realiza comparações faciais e outras verificações relacionadas às fronteiras nos portos de entrada.
A CBP afirma num documento de privacidade pública que o seu sistema de verificação de viajantes não utiliza informações de “fontes comerciais ou dados disponíveis publicamente”. Após a implementação, o acesso ao Clearview provavelmente estará vinculado ao sistema de segmentação automatizado do CBP. O sistema vincula registros de fiscalização, incluindo galerias biométricas, listas de observação e arquivos associados à recente imigração e fiscalização alfandegária em áreas distantes das fronteiras dos EUA.
A Clearview AI não respondeu imediatamente a um pedido de comentário.
testes recentes pelo Instituto Nacional de Padrões e TecnologiaUma avaliação da Clearview AI entre outros fornecedores descobriu que o sistema de pesquisa facial funcionava bem com “fotos semelhantes a vistos de alta qualidade”, mas mal em ambientes mal gerenciados. Imagens tiradas em passagens de fronteira que “não foram originalmente destinadas ao reconhecimento facial automático” tiveram taxas de erro “muito mais altas, muitas vezes superiores a 20 por cento, mesmo quando se usam algoritmos mais precisos”, disseram cientistas federais.
Este teste destacou uma grande limitação desta tecnologia. O NIST descobriu que os sistemas de busca facial não podem reduzir correspondências falsas sem aumentar o risco de não reconhecer a pessoa correta.
Como resultado, o NIST diz que as agências governamentais podem operar o software num ambiente de “pesquisa”, retornando uma lista classificada de candidatos para revisão humana, em vez de uma única correspondência confirmada. Porém, mesmo que o sistema esteja configurado para retornar sempre candidatos, a busca por alguém que ainda não exista no banco de dados gerará “correspondências” para consideração. Nestes casos, os resultados estão sempre 100% errados.


















