Notícia | Proteção de dados pessoais e infância | Plataformas e Mercados Digitais
Plataforma de inteligência artificial usa imagens de crianças brasileiras sem autorização
Uma plataforma de inteligência artificial na Alemanha está usando imagens de crianças brasileiras sem autorização.
Crianças na festinha de aniversário, nas brincadeiras com amiguinhos, o recém-nascido na maternidade. São imagens de momentos assim, compartilhados nas redes sociais e mesmo em antigos blogs ou grupos fechados, que estão sendo usadas, sem autorização, por plataformas de treinamento da inteligência artificial. A denúncia foi feita a partir de uma descoberta da organização internacional de direitos humanos Human Rights Watch.
“Os primeiros que vi foram vídeos caseiros, de família, postados em 1994. E tem também imagens recentes de festas de aniversário de crianças que aconteceram em 2023”, diz Hye Jung Han, pesquisadora do Human Rights Watch.
A pesquisadora da organização contou que foram descobertas, em uma plataforma alemã chamada LAION-5B, pelo menos 170 fotos de crianças de 10 estados brasileiros. Ela disse que a plataforma reconheceu o uso e disse que retiraria as imagens.
“O problema é que olhamos apenas uma pequena amostra de um conjunto de dados. Então, é realmente a ponta do iceberg”, afirma Hye Jung Han.
Além da invasão de privacidade, o grande perigo do uso de imagens sem autorização é o da manipulação dessas imagens. Elas podem acabar sendo usadas não só para treinar a inteligência artificial, mas em manipulações difamatórias, criminosas, pornográficas. E isso pode prejudicar muito a vida de qualquer um, especialmente das crianças e adolescentes.
As letras miúdas com as quais concordamos ao entrar em redes sociais e aplicativos envelheceram diante da nova realidade da inteligência artificial. É o que explica Rafael Zanatta, membro da Comissão de Defesa dos Direitos da Criança da OAB e advogado especializado em direito à privacidade e vigilância em tecnologia.
“Nós não podemos usar esses modelos antigos de consentimento porque pessoas que concordaram no passado, concordaram com contextos específicos. Elas não concordaram que poderia existir uma extração massiva dessas informações para outros fins. Eles treinaram as bases de dados com crianças, com possibilidade de reredificação e estão utilizando para oferecer depois serviços de imagem sintética. Então, o problema é bastante grave”, afirma Rafael Zanatta.
O perigo pode diminuir com a lei que está em discussão essa semana no Senado e deve ser aperfeiçoada com ajuda da sociedade e votada em breve.
“É realmente importante garantir que os legisladores levem isso muito a sério e aprovem leis realmente abrangentes de proteção de dados infantis. É possível aprovar leis agora mesmo para impedir que isso se torne ainda mais prejudicial, não apenas para as crianças, mas para todos”, diz Hye Jung Han, pesquisadora do Human Rights Watch.
Texto publicado originalmente no dia 10.06.2024 no site Jornal nacional, disponível também em vídeo.
DataPrivacyBr Research | Conteúdo sob licenciamento CC BY-SA 4.0