ONG identifica uso de fotos de crianças brasileiras para IA
Levantamento feito pela Human Rights Watch indica que ferramentas de inteligência artificial estariam utilizando imagens para treinar algoritmos, sem consentimento, o que leva a risco de superexposição online.
00:04 | Jun. 11, 2024
Um estudo divulgado nesta segunda-feira (10/06) pela organização não governamental Humans Right Watch aponta que imagens de crianças e adolescentes brasileiros têm sido usadas sem plena autorização, conhecimento ou consentimento, para o treinamento de ferramentas de inteligência artificial (IA). De acordo com o relatório, as fotografias são coletadas na internet e inseridas em um extenso conjunto de dados que empresas de IA utilizam para treinar algoritmos.
Além disso, há quem use as fotos para criar deep fakes, que ocorre, por exemplo, quando uma imagem é usada para compor um vídeo com uma fala já existente ou mesmo criada por IA, o que coloca crianças e adolescentes em situação de risco ainda maior.
"Crianças e adolescentes não deveriam ter que viver com medo de que suas fotos possam ser roubadas e usadas contra eles. O governo deveria adotar urgentemente políticas para proteger os dados das crianças diante do uso indevido impulsionado por IA", afirma Hye Jung Han, pesquisadora de direitos da criança e tecnologia da Human Rights Watch.
A ONG encontrou pelo menos 170 imagens de 10 estados brasileiros: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo. A probabilidade de que haja muito mais imagens de crianças e adolescentes brasileiros espalhadas em empresas de IA, no entanto, é um tanto evidente, já que a Human Rights Watch analisou menos de 0,0001% de um total de 5,85 bilhões de imagens e legendas no conjunto de dados.
São vários os riscos à privacidade de quem tem a imagem utilizada indevidamente na internet. O treinamento em fotos de pessoas reais pode levar algoritmos de IA a comporem clones online que, posteriormente, podem gerar imagens explícitas de menores.
Fácil identificação
A análise da ONG aponta que o LAION-5B, que agrupa dados para treinar ferramentas de IA e que é desenvolvido a partir de raspagens feitas na internet, contém links para fotos de crianças brasileiras que são identificáveis, com seus respectivos nomes listados em legendas ou na URL onde a imagem está arquivada. Com isso, em muitos casos, as identidades das crianças e adolescentes que aparecem nas imagens podem ser facilmente rastreáveis, inclusive com informações de quando e onde se estava quando a fotografia foi feita.
As fotos encontradas mostram várias fases da infância e da adolescência, desde bebês recém-nascidos, crianças soprando velas em festas de aniversário ou dançando em casa, até adolescentes apresentando trabalhos ou mesmo em celebrações carnavalescas, ambas em escolas. Muitas dessas imagens foram postadas pelas próprias crianças, adolescentes ou mesmo por pais e familiares em sites de vídeos compartilhados ou blogs pessoais, algumas tendo sido publicadas muitos anos antes do surgimento do LAION-5B.
LAION responde ao estudo
A organização alemã sem fins lucrativos LAION, que administra o LAION-5B, corroborou que as imagens encontradas pela Humans Right Watch são reais e se comprometeu a removê-las. Em contrapartida, argumentou que os modelos treinados de IA do LAION-5B não seriam capazes de reproduzir dados pessoais de forma literal. E que os próprios jovens e pais são responsáveis por removerem suas imagens da internet.
Mais proteção
A Human Rights Watch defende que a Lei Geral de Proteção de Dados Pessoais do Brasil não protege suficientemente as crianças. E que o governo deveria fortalecer a legislação, com mais regulamentação em relação à IA.
O Conselho Nacional da Criança e do Adolescente publicou uma resolução em abril por meio da qual orienta o próprio Conselho e também o Ministério dos Direitos Humanos e Cidadania a fortalecerem os direitos de crianças e adolescentes no ambiente digital em até 90 dias. A iniciativa visa proibir a raspagem de dados para sistemas de IA devido aos riscos quanto à privacidade dos atingidos e ao uso não consensual de imagens que possam gerar manipulação de conteúdo.
"A IA generativa ainda é uma tecnologia incipiente, e os danos que as crianças já estão enfrentando não são inevitáveis. Proteger a privacidade dos dados de crianças ajudará a moldar o desenvolvimento dessa tecnologia para uma que promova os direitos das crianças", conclui Han.