Notícia | IA com Direitos | Plataformas e Mercados Digitais
Confundida com criminosa por ‘Inteligência Artificial’ denuncia racismo: “Discriminada por ser pobre e preta”
A auxiliar administrativa Thaís Santos, de Aracaju (SE), confundida com uma foragida da Justiça por duas ocasiões em um mesmo evento na capital sergipana, considera que o erro tenha um viés de racismo. “Fui discriminada publicamente por ser pobre e preta”, diz a jovem de 31 anos. “Nunca fui tão humilhada em minha vida, sem nunca ter feito nada de errado na vida”, se revolta Thaís.
Um erro da IA (Inteligência Artificial) usada no reconhecimento facial das câmeras de um evento em Aracaju (SE), motivou a abordagem. Ela conta que, meia hora após chegar à micareta, três agentes à paisana da PM a interceptaram. Perguntaram o nome dela e pediram o documento. Como ela estava sem o RG, o constrangimento iniciou.
“Questionei do que se tratava e quem seriam eles. Um dos polícias se identificou e informou que estava à paisana. Disse que a abordagem era um protocolo de segurança, pois eu teria sido identificada pela câmera de segurança como uma possível foragida”, disse a jovem à Folha de São Paulo. Após a confirmação de que não era a criminosa procurada, ela foi liberada, mas teve acesso a foto da mulher. “Ela não se parecia comigo”, disse a auxiliar a administrativa.
Duas horas depois, enquanto curtia o evento, quatro policiais militares a abordaram novamente. Dessa vez, de forma violenta. Obrigaram Thaís a colocar as mãos para trás para ser algemada.
“Eu já estava chorando e nervosa, informando que eu não tinha feito nada”, continua a mulher, que chegou a urinar durante as duas abordagens. “Um dos policiais dizia que eu sabia o que tinha feito. No mesmo momento, eu urinei nas calças”. “Fui conduzida para o camburão da polícia como uma marginal, relata, “com todo mundo ali presenciando todo o constrangimento pelo qual eu estava passando”, prossegue.
Depois da última abordagem equivocada – com traços de racismo, – a mulher foi para casa aflita e com medo.
A Secretaria de Segurança Pública de Sergipe alegou que “houve uma grande similaridade apontada pela identificação facial com outra pessoa, que possuía mandado de prisão em aberto”. “A tecnologia não tem 100% de precisão se realmente é a pessoa apontada no banco de mandados, por isso a necessidade de uma verificação minuciosa”, completou.
A Corregedoria da Polícia Militar instaurou procedimento para investigar a ocorrência. A PM informou que “irá rever os protocolos para evitar falhas nos próximos eventos com uso da identificação facial”.
As câmeras usadas pela SSP de Sergipe possuem IA, como outras com reconhecimento facial, que comparam traços dos rostos filmados àqueles presentes em bancos de dados. Esse recurso e outros do tipo geram a resistência de pesquisadores, que veem inconsistências contra a população negra e pessoas trans.
“Assim, apesar de certo consenso entre diferentes stakeholders em relação aos princípios éticos de aplicação da IA, a exemplo de transparência, justiça/não-discriminação, não-maleficência, prestação de contas e privacidade, a prática revela dificuldade de traduzir esses princípios em medidas concretas que salvaguardem efetivamente direitos fundamentais’, citam as pesquisadoras Paula Guedes Fernandes da Silva, doutoranda em Direito e Mestre em Direito Internacional e Europeu pela Universidade Católica do Porto, Pesquisadora de Direito e Tecnologia pelo Legalite PUC-Rio, e Marina Gonçalves Garrote, pesquisadora na Associação Data Privacy Brasil de Pesquisa e Mestranda em Direito na Universidade de São Paulo.
A análise sobre a regulação e aplicação da IA constam do artigo “Insuficiência dos princípios éticos para normatização da Inteligência Artificial: o antirracismo e a anti-discriminação como vetores da regulação de IA no Brasil”, publicado em 2022.
“Demonstram isso os diversos casos de práticas e decisões ilegítimas ou abusivas fruto de aplicações de IA, mesmo após a fixação de guias éticos, como a proliferação de casos de racismo algorítmico, falhas em identificação biométrica facial, vigilantismo, exclusão social, manipulação de comportamentos e dificuldade de acesso a serviços essenciais, todos com efeitos desproporcionais sobre grupos minorizados”, completa o estudo.
Tarcízio Silva, pesquisador que há seis anos estuda o tema, a ferramenta usada no Pré-Caju é perigosa, pois “tecnologias de reconhecimento facial são altamente imprecisas para encontrar pessoas específicas”.
O sociólogo Sérgio Amadeu da Silveira, da UFABC (Universidade Federal do ABC), considera que o reconhecimento facial tem sido usado na segurança pública para classificar “classes perigosas, setores marginalizados”. Nas periferias, analisa, Amadeu, “esse sistema vai confirmar preconceitos e vieses já existentes, vai ampliar práticas discriminatórias e racistas num país como o nosso, que mata jovens negros”.
A falta de neutralidade dos algoritmos acaba reproduzindo a discriminação social, alerta o professor da UFABC. “Essas tecnologias são probabilísticas, têm um erro embutido nesse reconhecimento”, pontua Sérgio Amadeu.
Texto publicado originalmente no dia 15.11.2023 no site Hora do Povo.
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0