O governo espanhol anunciou esta semana uma grande reformulação de um programa no qual a polícia depende de um algoritmo para identificar potenciais vítimas repetidas de violência doméstica, depois de as autoridades terem enfrentado dúvidas sobre a eficácia do sistema.
O programa, VioGén, exige que os policiais façam uma série de perguntas às vítimas. As respostas são inseridas em um programa de software que gera uma pontuação – de nenhum risco a risco extremo – destinada a sinalizar as mulheres mais vulneráveis a abusos repetidos. A pontuação ajuda a determinar que proteção policial e outros serviços uma mulher pode receber.
Investigação do New York Times O ano passado mostrou que a polícia é altamente dependente da tecnologia, quase sempre aceitando decisões tomadas pelo software VioGén. Algumas mulheres que o algoritmo rotulou como sem risco ou de baixo risco de danos adicionais sofreram mais abusos, incluindo dezenas de assassinatos, descobriu o Times.
Autoridades espanholas disseram que as mudanças anunciadas esta semana fazem parte de uma atualização do sistema planejada há muito tempo, introduzida em 2007. Eles disseram que o software ajudou os departamentos de polícia com recursos limitados a proteger mulheres vulneráveis e a reduzir o número de agressões repetidas.
No sistema atualizado, VioGén 2, o software não poderá mais rotular as mulheres como estando em risco. A polícia deve inserir mais informações sobre a vítima, o que, segundo as autoridades, levará a previsões mais precisas.
Outras mudanças destinam-se a melhorar a cooperação entre agências governamentais envolvidas na violência contra as mulheres, incluindo a facilitação da partilha de informações. Em alguns casos, as vítimas receberão planos de proteção personalizados.
“O machismo está batendo à nossa porta e com uma violência diferente de tudo que vimos há muito tempo”, disse a ministra da Igualdade, Ana Redondo, em entrevista coletiva na quarta-feira. “Este não é o momento de dar um passo atrás. É hora de dar um salto em frente.”
A utilização pela Espanha de um algoritmo para tratar a violência de género é um exemplo abrangente de como Os governos estão recorrendo a algoritmos para tomar decisões sociais importantes, uma tendência que deverá crescer com o uso da inteligência artificial. O sistema tem sido estudado como um modelo potencial para governos de outros países que tentam abordar a violência contra as mulheres.
A VioGén foi criada com a crença de que um algoritmo baseado num modelo matemático poderia servir como uma ferramenta imparcial que poderia ajudar a polícia a encontrar e proteger mulheres que, de outra forma, poderiam passar despercebidas. As perguntas de sim ou não incluem: Foi usada uma arma? Houve problemas financeiros? O invasor demonstrou comportamento controlador?
As vítimas classificadas como de alto risco receberam mais protecção, incluindo patrulhas regulares às suas casas, acesso a abrigos e vigilância policial dos movimentos dos seus agressores. Aqueles com pontuações mais baixas receberam menos ajuda.
Em Novembro, havia mais de 100.000 casos activos de mulheres em Espanha avaliados pela VioGén, com quase 85 por cento das vítimas classificadas como enfrentando um baixo risco de serem novamente feridas pelo seu agressor. Os agentes da polícia em Espanha são treinados para ignorar as recomendações do Viogen se as evidências o justificarem, mas o Times descobriu que as pontuações de risco foram aceites em cerca de 95% das vezes.
Victoria Rosell, juíza em Espanha e antiga representante do governo focada em questões de violência de género, disse que o governo precisava de um período de “autocrítica” para melhorar o VioGén. Ele disse que o sistema poderia ser mais preciso se os dados fossem extraídos de bancos de dados governamentais adicionais, incluindo os sistemas de saúde e educação.
Natalia Morlas, presidente do grupo de direitos das vítimas Somos Mas, disse que acolheu favoravelmente as mudanças, que espera que permitam à polícia avaliar melhor os riscos.
“Calibrar bem o risco das vítimas é tão importante que pode salvar vidas”, disse a Sra. Morlas. Ele acrescentou que manter uma supervisão humana próxima do sistema é importante porque uma vítima “deve ser tratada por um ser humano, não por uma máquina”.


















