Confundida com criminosa por ‘Inteligência Artificial’ denuncia racismo: “Discriminada por ser pobre e preta”
Um erro da IA (Inteligência Artificial) usada no reconhecimento facial das câmeras de um evento em Aracaju (SE), motivou a abordagem. Ela conta que, meia hora após chegar à micareta, três agentes à paisana da PM a interceptaram. Perguntaram o nome dela e pediram o documento. Como ela estava sem o RG, o constrangimento iniciou.
A auxiliar administrativa Thaís Santos, de Aracaju (SE), confundida com uma foragida da Justiça por duas ocasiões em um mesmo evento na capital sergipana, considera que o erro tenha um viés de racismo. “Fui discriminada publicamente por ser pobre e preta”, diz a jovem de 31 anos. “Nunca fui tão humilhada em minha vida, sem nunca ter feito nada de errado na vida”, se revolta Thaís.
Um erro da IA (Inteligência Artificial) usada no reconhecimento facial das câmeras de um evento em Aracaju (SE), motivou a abordagem. Ela conta que, meia hora após chegar à micareta, três agentes à paisana da PM a interceptaram. Perguntaram o nome dela e pediram o documento. Como ela estava sem o RG, o constrangimento iniciou.
“Questionei do que se tratava e quem seriam eles. Um dos polícias se identificou e informou que estava à paisana. Disse que a abordagem era um protocolo de segurança, pois eu teria sido identificada pela câmera de segurança como uma possível foragida”, disse a jovem à Folha de São Paulo. Após a confirmação de que não era a criminosa procurada, ela foi liberada, mas teve acesso a foto da mulher. “Ela não se parecia comigo”, disse a auxiliar a administrativa.
Duas horas depois, enquanto curtia o evento, quatro policiais militares a abordaram novamente. Dessa vez, de forma violenta. Obrigaram Thaís a colocar as mãos para trás para ser algemada.
“Eu já estava chorando e nervosa, informando que eu não tinha feito nada”, continua a mulher, que chegou a urinar durante as duas abordagens. “Um dos policiais dizia que eu sabia o que tinha feito. No mesmo momento, eu urinei nas calças”. “Fui conduzida para o camburão da polícia como uma marginal, relata, “com todo mundo ali presenciando todo o constrangimento pelo qual eu estava passando”, prossegue.
Depois da última abordagem equivocada – com traços de racismo, – a mulher foi para casa aflita e com medo.
A Secretaria de Segurança Pública de Sergipe alegou que “houve uma grande similaridade apontada pela identificação facial com outra pessoa, que possuía mandado de prisão em aberto”. “A tecnologia não tem 100% de precisão se realmente é a pessoa apontada no banco de mandados, por isso a necessidade de uma verificação minuciosa”, completou.
A Corregedoria da Polícia Militar instaurou procedimento para investigar a ocorrência. A PM informou que “irá rever os protocolos para evitar falhas nos próximos eventos com uso da identificação facial”.
As câmeras usadas pela SSP de Sergipe possuem IA, como outras com reconhecimento facial, que comparam traços dos rostos filmados àqueles presentes em bancos de dados. Esse recurso e outros do tipo geram a resistência de pesquisadores, que veem inconsistências contra a população negra e pessoas trans.
“Assim, apesar de certo consenso entre diferentes stakeholders em relação aos princípios éticos de aplicação da IA, a exemplo de transparência, justiça/não-discriminação, não-maleficência, prestação de contas e privacidade, a prática revela dificuldade de traduzir esses princípios em medidas concretas que salvaguardem efetivamente direitos fundamentais’, citam as pesquisadoras Paula Guedes Fernandes da Silva, doutoranda em Direito e Mestre em Direito Internacional e Europeu pela Universidade Católica do Porto, Pesquisadora de Direito e Tecnologia pelo Legalite PUC-Rio, e Marina Gonçalves Garrote, pesquisadora na Associação Data Privacy Brasil de Pesquisa e Mestranda em Direito na Universidade de São Paulo.
A análise sobre a regulação e aplicação da IA constam do artigo “Insuficiência dos princípios éticos para normatização da Inteligência Artificial: o antirracismo e a anti-discriminação como vetores da regulação de IA no Brasil”, publicado em 2022.
“Demonstram isso os diversos casos de práticas e decisões ilegítimas ou abusivas fruto de aplicações de IA, mesmo após a fixação de guias éticos, como a proliferação de casos de racismo algorítmico, falhas em identificação biométrica facial, vigilantismo, exclusão social, manipulação de comportamentos e dificuldade de acesso a serviços essenciais, todos com efeitos desproporcionais sobre grupos minorizados”, completa o estudo.
Tarcízio Silva, pesquisador que há seis anos estuda o tema, a ferramenta usada no Pré-Caju é perigosa, pois “tecnologias de reconhecimento facial são altamente imprecisas para encontrar pessoas específicas”.
O sociólogo Sérgio Amadeu da Silveira, da UFABC (Universidade Federal do ABC), considera que o reconhecimento facial tem sido usado na segurança pública para classificar “classes perigosas, setores marginalizados”. Nas periferias, analisa, Amadeu, “esse sistema vai confirmar preconceitos e vieses já existentes, vai ampliar práticas discriminatórias e racistas num país como o nosso, que mata jovens negros”.
A falta de neutralidade dos algoritmos acaba reproduzindo a discriminação social, alerta o professor da UFABC. “Essas tecnologias são probabilísticas, têm um erro embutido nesse reconhecimento”, pontua Sérgio Amadeu.
Texto publicado originalmente no dia 15.11.2023 no site Hora do Povo.
Veja também
-
IA e os direitos das crianças
Com o avanço das tecnologias digitais e a crescente presença da Inteligência Artificial (IA) em diversos setores, surge uma preocupação central: como proteger as crianças e adolescentes em um cenário onde as interações digitais estão se tornando cada vez mais prevalentes? Saiba mais no texto.
-
Data Privacy Brasil submete contribuição para o Grupo de Trabalho do Conanda
O objetivo é contribuir para o desenvolvimento da Política Nacional de Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital. Confira quais foram as nossas indicações no texto.
-
Relatório aponta que uso da IA nas eleições não causou impacto negativo
Na quarta-feira (16), Carla Rodrigues, coordenadora da área de Plataformas e Mercados Dgitais na Data Privacy Brasil esteve presente no programa Jornal da Cultura. A edição repercutiu o relatório "IA no primeiro turno: o que vimos até aqui?", uma parceria entre Aláfia Lab, *desinformante e Data Privacy Brasil.
-
IA no primeiro turno: o que vimos até aqui?
Aláfia Lab, *desinformante e Data Privacy Brasil lançam relatório com análise sobre o uso de IA no primeiro turno das eleições de 2024.
-
‘Nudes’ falsos, deepfake e jingles sintéticos marcam uso da IA no primeiro turno e apontam desafios para 2026
Embora o temor de desinformação massiva não tenha se concretizado, casos registrados na eleições municipais servem de alerta para a corrida presidencial, avaliam especialistas. Confira a reportagem sobre o novo relatório do Observatório IA nas Eleições, parceria entre Data Privacy Brasil, o Aláfia Lab e desinformante.
-
Data participa da 9ª edição do Simpósio Crianças e Adolescentes na Internet
Estão abertas as inscrições para a 9° edição do “Simpósio Crianças e Adolescentes na Internet”, que acontece no dia 23 de outubro de 2024, em São Paulo.
-
IA com Direitos: diálogo e colaboração para regular e proteger
A Data Privacy Brasil lança projeto para unir pessoas e organizações para uma regulação de IA centrada em direitos no Brasil.
-
Data Privacy Brasil e Aláfia Lab lançam o “Observatório de IA nas eleições”
A Data Privacy Brasil, em parceria com o Aláfia Lab e o *desinformante, lançam o “Observatório de IA nas Eleições”, uma nova plataforma que tem o objetivo de mapear e registrar casos de uso de IA generativa durante as eleições brasileiras de 2024.
Veja Também
-
IA e os direitos das crianças
Com o avanço das tecnologias digitais e a crescente presença da Inteligência Artificial (IA) em diversos setores, surge uma preocupação central: como proteger as crianças e adolescentes em um cenário onde as interações digitais estão se tornando cada vez mais prevalentes? Saiba mais no texto.
-
Relatório aponta que uso da IA nas eleições não causou impacto negativo
Na quarta-feira (16), Carla Rodrigues, coordenadora da área de Plataformas e Mercados Dgitais na Data Privacy Brasil esteve presente no programa Jornal da Cultura. A edição repercutiu o relatório "IA no primeiro turno: o que vimos até aqui?", uma parceria entre Aláfia Lab, *desinformante e Data Privacy Brasil.
-
IA no primeiro turno: o que vimos até aqui?
Aláfia Lab, *desinformante e Data Privacy Brasil lançam relatório com análise sobre o uso de IA no primeiro turno das eleições de 2024.
-
‘Nudes’ falsos, deepfake e jingles sintéticos marcam uso da IA no primeiro turno e apontam desafios para 2026
Embora o temor de desinformação massiva não tenha se concretizado, casos registrados na eleições municipais servem de alerta para a corrida presidencial, avaliam especialistas. Confira a reportagem sobre o novo relatório do Observatório IA nas Eleições, parceria entre Data Privacy Brasil, o Aláfia Lab e desinformante.
-
Data participa da 9ª edição do Simpósio Crianças e Adolescentes na Internet
Estão abertas as inscrições para a 9° edição do “Simpósio Crianças e Adolescentes na Internet”, que acontece no dia 23 de outubro de 2024, em São Paulo.
-
IA com Direitos: diálogo e colaboração para regular e proteger
A Data Privacy Brasil lança projeto para unir pessoas e organizações para uma regulação de IA centrada em direitos no Brasil.
-
Data Privacy Brasil e Aláfia Lab lançam o “Observatório de IA nas eleições”
A Data Privacy Brasil, em parceria com o Aláfia Lab e o *desinformante, lançam o “Observatório de IA nas Eleições”, uma nova plataforma que tem o objetivo de mapear e registrar casos de uso de IA generativa durante as eleições brasileiras de 2024.
-
Leituras fundamentais para compreender o debate de regulação de mercados digitais no Brasil
O tema da regulação econômica dos mercados digitais tem se tornado cada vez mais crucial para democracias contemporâneas, como a brasileira. Confira as recomendações sobre o tema em texto escrito por Rafael Zanatta, codiretor da Data.
-
IA e direitos para quem trabalha
Com o avanço das tecnologias digitais e a crescente presença da Inteligência Artificial (IA) em diversos setores, surge uma preocupação central: como proteger quem trabalha em um ambiente de rápidas transformações? Confira no texto.
-
No aniversário de 6 anos da LGPD, Data Privacy Brasil pede priorização da proteção das crianças e adolescentes
A tomada de subsídios é mais um passo na construção de uma agenda de regulação da ANPD neste tema, em julho, diversas organizações da sociedade civil pediram aumento do prazo para a agência devido à importância da discussão.
-
Entidades civis exigem da ANPD mais prazo para discussão de proteção de dados de crianças e adolescentes
Dada a importância do tema e a necessidade de um prazo maior para análise, compreensão e produção de contribuições, diversas entidades assinaram uma Carta Aberta solicitando à ANPD a ampliação do prazo por mais 30 dias.
-
Plataforma de inteligência artificial usa imagens de crianças brasileiras sem autorização
Reportagem do Jornal nacional aborda como uma plataforma de inteligência artificial na Alemanha está usando imagens de crianças brasileiras sem autorização. Rafael Zanatta, codiretor da Data Privacy Brasil fala sobre as principais preocupações relacionadas ao tema.
-
IA na sala de aula: Construindo modelos participativos para a comunidade escolar
Como a comunidade escolar pode participar da governança das tecnologias de ensino-aprendizagem? Para responder a esta questão, lançamos a cartilha “Inteligência Artificial na Sala de Aula: modelos de participação para a comunidade escolar”.
-
IAs nas eleições: ‘socializar e compartilhar não apenas os benefícios mas também os riscos’
O TSE deve votar hoje as regras para as eleições municipais. Bruno Bioni, diretor do Data Privacy Brasil, fala sobre resolução que deve disciplinar uso de tecnologias de inteligência artificial nas campanhas.
-
Data Privacy Brasil demanda esforços públicos e privados nas eleições de 2024 diante das IAs
A Data Privacy Brasil vem a público elogiar a aprovação de novas regras para eleições de 2024 pelo Tribunal Superior Eleitoral (TSE) na noite de 27 de fevereiro, sob relatoria da vice-presidente da corte eleitoral, ministra Cármen Lúcia, bem como manifestar preocupações com relação aos potenciais usos abusivos de tecnologias da informação nas eleições deste ano.
-
Temas Centrais na Regulação de IA: o local, regional e o global na busca da interoperabilidade regulatória
A Data Privacy Brasil anuncia o lançamento de seu position paper sobre temas centrais na regulação local, regional e global de inteligência artificial. O documento traz os principais pontos de convergência entre mais de 20 fontes normativas, sem deixar de considerar as particularidades necessárias para o contexto brasileiro.
-
EUA adotam novas diretrizes para IA
Na última segunda (30/10), o presidente dos Estados Unidos, Joe Biden assinou um decreto sobre inteligência artificial, o qual busca equilibrar as necessidades de empresas de tecnologia de ponta com a segurança nacional e os direitos dos consumidores. O governo estadunidense almeja estabelecer um conjunto de proteções que possam ser fortalecidas por legislações e acordos globais. Mas quais disposições são essas? Vamos conferir!
-
Data Privacy Brasil participates in UN’s OHCHR briefing on Brazil
The organization highlighted how the advance of edtech has been violating children’s privacy in the country
-
Privacidade e Proteção de Dados: Uma abordagem dos direitos das crianças para a criptografia
Há quem entenda que a garantia do anonimato pela criptografia e a proteção de crianças na internet são coisas separadas, até mesmo opostas. Porém, novo relatório propõe uma olhar mais complexo e multissetorial para a questão.
-
Associação Data Privacy Brasil de Pesquisa participa da Reunião Ministerial da OCDE sobre economia digital
Evento teve como principal tema de debate os caminhos para um futuro inclusivo no ambiente virtual
-
Organização Mundial do Comércio realiza a sua 12ª Conferência Ministerial
A cobertura do evento, dedicado a acordos e negociações envolvendo comércio internacional, foi acompanhada pela Associação Data Privacy Brasil de Pesquisa.
-
Associação Data Privacy Brasil de Pesquisa participa do painel “Proteção de criança online na pandemia: ferramentas e boas práticas para um ambiente seguro”
Workshop, que faz parte das atividades do 12 Fórum da Internet no Brasil, buscou apresentar e debater o surgimento de novas ferramentas para conter as ameaças que crianças e adolescentes encontram ao utilizarem a internet
-
The regulation of digital platforms is already a reality
The Digital Markets Act is about to be approved in the European Union and is expected to impact other jurisdictions
-
Conectas e Data Privacy Brasil lançam a 31° edição da Revista Sur
Publicação proporciona debates a respeito dos impactos da pandemia sobre os direitos coletivos e liberdades individuais no Sul Global
-
A regulação de plataformas digitais já é realidade
O Digital Markets Act está para ser aprovado na União Europeia e deve impactar outras jurisdições
-
DISCUSSION PAPER No 2/2021: A MULTIJURISDICTIONAL ANALYSIS OF DATA-DRIVEN MERGERS: CURRENT ASSESSMENT AND PUBLIC POLICY PROPOSALS FOR BRAZIL
Data Privacy Brazil Research in partnership with the Brazilian Institute for Consumer Protection (Idec) launches a seven month study about data-driven mergers led by the researcher Lucas Griebeler Motta (University of Chicago).
-
A proteção legal dos dados pessoais de crianças e adolescentes no Brasil
Discussões sobre a proteção de dados de crianças e adolescentes ao longo do processo de discussão da LGPD no Executivo e Legislativo, buscando entender como chegou-se ao atual art. 14 da lei.
-
TikTok e o “caso Antonella” na Itália
Uma menina de 10 anos chamada Antonella foi ao banheiro da sua residência, sozinha, levando seu celular, para realizar um desafio denominado blackout challenge no aplicativo TikTok. O desafio consistia em tentar ficar sem respirar o máximo possível. Para tanto, ela colocou uma faixa ao redor do pescoço, o que gerou um desmaio, seguido de um coma. […]
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0