O relatório divulgado pela ONG Human Rights Watch, nesta segunda-feira (10), indica que fotos de crianças e adolescentes brasileiros são usadas para criar ferramentas de inteligência artificial sem o conhecimento ou consentimento deles.
A análise concluiu que o LAION-5B, um conjunto de dados usado para treinar ferramentas populares de IA – como o Stable Diffusion, gerador de imagens da Stability AI - e construído a partir da raspagem de informações de grande parte da internet, possui links para fotos identificáveis de crianças.
Segundo a Human Rights Watch, 170 imagens e dados pessoais de crianças e adolescentes brasileiros foram usados sem permissão para treinar ferramentas de IA. De acordo com a ONG, os conteúdos foram extraídos de blogs pessoais e publicações no YouTube.
Além das imagens, a plataforma também disponibiliza os nomes de algumas crianças nas legendas ou na URL onde a imagem está armazenada. A investigação também concluiu que, em muitos casos, as identidades são rastreáveis, com informações sobre quando e onde a criança estava no momento que a foto foi tirada.
De acordo com o relatório, as imagens teriam sido extraídas de publicações feitas desde meados da década de 90 até mais recentemente, no ano passado, em blogs pessoais e conteúdos do YouTube com poucas visualizações.
Segundo a revista Wired, especializada em tecnologia, Nate Tyler, porta-voz da LAION, disse que “o LAION-5B foi retirado do ar em resposta a um relatório de Stanford que encontrou links no dataset apontando para conteúdo ilegal na web pública”, e que os esforços da organização estão focados em “remover todas as referências conhecidas a conteúdo ilegal.”