A ONG Human Rights Watch divulgou, nesta segunda-feira (10), que fotos pessoais de crianças do Ceará e outros nove estados brasileiros foram utilizadas sem autorização em um banco de imagens. Os registros eram usados para treinar ferramentas de inteligência artificial (IA). Conforme relatório da organização, foram encontradas pelo menos 170 imagens obtidas online e integradas ao conjunto de dados chamado de LAION-5B.
“As crianças não deveriam ter de viver com medo de que as suas fotografias possam ser roubadas e utilizadas como armas contra elas. O governo deve adotar urgentemente políticas para proteger os dados das crianças do uso indevido alimentado pela IA”, revelou Hye Jung Han, investigadora de direitos e tecnologia da criança e defensora da Human Rights Watch.
Além do Ceará, as imagens foram recolhidas de crianças dos estados do Alagoas, Bahia, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina, e São Paulo. As fotografias também estavam sendo utilizadas para criar deepfakes.
Na próxima quarta-feira (12), o Senado Federal deve votar o Marco Legal da Inteligência Artificial (PL2338/2023). A informação foi confirmada pelo relator da proposta, Eduardo Gomes (PL-TO), durante audiência pública no Conselho de Comunicação Social (CCS) sobre impacto da IA no setor.
LAION-5B
A plataforma LAION-5B possui links para fotos identificáveis de crianças do Brasil. Os nomes dos menores estão listados na legenda ou no site onde a imagem está localizada.
As fotos do local capturam momentos desde o nascimento a adolescentes em festas de carnaval escolar, por exemplo. Há casos ainda que é possível saber o local e a data de onde a foto foi tirada.
Ainda segundo a Human Rights Watch, pelo menos 85 meninas de Alagoas, Minas Gerais, Pernambuco, Rio de Janeiro, Rio Grande do Sul e São Paulo relataram assédio por parte de seus colegas de classe, que teriam usado ferramentas de IA para criar deepfakes sexualmente explícitos contra elas.