Fotos de crianças do Ceará e outros estados foram usadas sem autorização para banco de imagens de IA

Conforme relatório da ONG Human Rights Watch, foram encontradas 170 fotos de crianças de pelo menos 10 estados brasileiros

A ONG Human Rights Watch divulgou, nesta segunda-feira (10), que fotos pessoais de crianças do Ceará e outros nove estados brasileiros foram utilizadas sem autorização em um banco de imagens. Os registros eram usados para treinar ferramentas de inteligência artificial (IA). Conforme relatório da organização, foram encontradas pelo menos 170 imagens obtidas online e integradas ao conjunto de dados chamado de LAION-5B.

“As crianças não deveriam ter de viver com medo de que as suas fotografias possam ser roubadas e utilizadas como armas contra elas. O governo deve adotar urgentemente políticas para proteger os dados das crianças do uso indevido alimentado pela IA”, revelou Hye Jung Han, investigadora de direitos e tecnologia da criança e defensora da Human Rights Watch.
Além do Ceará, as imagens foram recolhidas de crianças dos estados do Alagoas, Bahia, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina, e São Paulo. As fotografias também estavam sendo utilizadas para criar deepfakes.

Segundo relatório da ONG, o LAION-5B possui 5,85 bilhões de imagens. O número de 170 fotos representa a verificação de 0,0001%. As fotografias podem ter sido publicadas pelas crianças, pelos pais ou até escolas onde os menores estudaram, tiradas em anos anteriores ao início da plataforma.

Na próxima quarta-feira (12), o Senado Federal deve votar o Marco Legal da Inteligência Artificial (PL2338/2023). A informação foi confirmada pelo relator da proposta, Eduardo Gomes (PL-TO), durante audiência pública no Conselho de Comunicação Social (CCS) sobre impacto da IA no setor.

LAION-5B
A plataforma LAION-5B possui links para fotos identificáveis de crianças do Brasil. Os nomes dos menores estão listados na legenda ou no site onde a imagem está localizada.

As fotos do local capturam momentos desde o nascimento a adolescentes em festas de carnaval escolar, por exemplo. Há casos ainda que é possível saber o local e a data de onde a foto foi tirada.

Ainda segundo a Human Rights Watch, pelo menos 85 meninas de Alagoas, Minas Gerais, Pernambuco, Rio de Janeiro, Rio Grande do Sul e São Paulo relataram assédio por parte de seus colegas de classe, que teriam usado ferramentas de IA para criar deepfakes sexualmente explícitos contra elas.

Fonte: Diário do Nordeste

 

 

Deixe uma resposta

Seu endereço de email não será publicado.