Amazon identifica material de abuso sexual infantil em dados usados para treinar IA. Entenda o caso

Autoridades dos EUA dizem que a empresa não informou a origem do material, o que pode dificultar investigações e a proteção das vítima. Corrida por dados expões falhas de controle

Amazon identifica material de abuso sexual infantil em dados usados para treinar IA. Entenda o caso
A Amazon, a maior vendedora de serviços de computação em nuvem, também desenvolve seus próprios modelos de inteligência artificial — Foto: Nathan Howard/Getty Images via Bloomberg

A Amazon relatou centenas de milhares de conteúdos no ano passado que acreditava incluírem abuso sexual infantil, encontrados em dados coletados para aprimorar seus modelos de inteligência artificial.

Embora a Amazon tenha removido o conteúdo antes de treinar seus modelos, autoridades de proteção infantil dos EUA disseram que a empresa não forneceu informações sobre a origem desse material, o que pode dificultar o trabalho das forças de segurança para localizar os responsáveis e proteger as vítimas.

Ao longo do ano passado, a Amazon detectou o material em seus dados de treinamento de IA e o reportou ao National Center for Missing and Exploited Children (Centro Nacional para Crianças Desaparecidas e Exploradas), ou NCMEC.

A organização, criada pelo Congresso dos EUA para receber denúncias de abuso sexual infantil e compartilhá-las com as autoridades, começou recentemente a acompanhar o número de relatórios especificamente ligados a produtos de IA e ao seu desenvolvimento.

Em 2025, o NCMEC registrou pelo menos um aumento de quinze vezes nesses relatórios relacionados à IA, sendo que “a grande maioria” veio da Amazon. As conclusões não haviam sido divulgadas anteriormente.

Um porta-voz da Amazon afirmou que os dados de treinamento foram obtidos de fontes externas e que a empresa não possui detalhes sobre sua origem que possam ajudar os investigadores. É comum que empresas utilizem dados coletados de fontes publicamente disponíveis, como a web aberta, para treinar seus modelos de IA.

Outras grandes empresas de tecnologia também analisaram seus dados de treinamento e relataram ao NCMEC material potencialmente exploratório. No entanto, o órgão apontou “diferenças gritantes” entre a Amazon e seus pares. As outras empresas, em conjunto, fizeram apenas “um punhado de relatórios” e forneceram mais detalhes sobre a origem do material, disse um alto funcionário do NCMEC.

Em uma declaração enviada por e-mail, o porta-voz da Amazon disse que a empresa está comprometida em prevenir material de abuso sexual infantil em todos os seus negócios.

“Adotamos uma abordagem deliberadamente cautelosa ao examinar dados de treinamento de modelos fundamentais, incluindo dados da web pública, para identificar e remover material conhecido de abuso sexual infantil e proteger nossos clientes”, afirmou o porta-voz.

Corrida acelerada por IA

O aumento nos relatórios da Amazon coincide com uma corrida acelerada por IA que deixou empresas grandes e pequenas correndo para adquirir e ingerir enormes volumes de dados para melhorar seus modelos. Mas essa corrida também complicou o trabalho das autoridades de proteção infantil — que têm dificuldade para acompanhar a rápida evolução da tecnologia — e desafiou reguladores responsáveis por proteger a IA contra abusos.

Especialistas em segurança de IA alertam que reunir rapidamente grandes conjuntos de dados sem salvaguardas adequadas envolve riscos graves.

A Amazon foi responsável pela maior parte dos mais de um milhão de relatórios relacionados à IA sobre material de abuso sexual infantil enviados ao NCMEC em 2025, informou a organização. Isso representa um salto em relação aos 67 mil relatórios ligados à IA que vieram de todo o setor de tecnologia e mídia no ano anterior, e a apenas 4.700 em 2023.

Essa categoria de relatórios relacionados à IA pode incluir fotos e vídeos gerados por IA, ou conversas sexualmente explícitas com chatbots de IA. Também pode incluir fotos de vítimas reais de abuso sexual que foram coletadas — mesmo que de forma não intencional — em esforços para melhorar modelos de IA.

Treinar IA com conteúdo ilegal e exploratório levanta novas preocupações. Isso pode moldar os comportamentos subjacentes de um modelo, potencialmente aperfeiçoando sua capacidade de alterar digitalmente e sexualizar fotos de crianças reais ou de criar imagens totalmente novas de crianças sexualizadas que nunca existiram. Também levanta a ameaça de manter em circulação as imagens nas quais os modelos foram treinados, revictimizando crianças que já sofreram abuso.

O porta-voz da Amazon afirmou que, até janeiro, a empresa “não tem conhecimento de nenhum caso” de seus modelos terem gerado material de abuso sexual infantil. Nenhum dos relatórios enviados ao NCMEC envolvia material gerado por IA, acrescentou o porta-voz.

Em vez disso, o conteúdo foi sinalizado por uma ferramenta automática de detecção que o comparou com um banco de dados de material conhecido de abuso infantil envolvendo vítimas reais — um processo chamado “hashing”. Aproximadamente 99,97% dos relatórios resultaram da varredura de “dados de treinamento não proprietários”, disse o porta-voz.

A Amazon acredita que reportou esses casos em excesso ao NCMEC para evitar deixar algo passar despercebido.

“Usamos intencionalmente um limite de varredura mais abrangente, o que resulta em uma alta porcentagem de falsos positivos”, acrescentou o porta-voz.

Os relatórios relacionados à IA recebidos no ano passado representam apenas uma fração do total enviado ao NCMEC. A categoria mais ampla de denúncias também inclui suspeitas de material de abuso sexual infantil enviadas por mensagens privadas ou carregadas em feeds de redes sociais e na nuvem.

Em 2024, por exemplo, o NCMEC recebeu mais de 20 milhões de relatórios de diversos setores da indústria, sendo a maioria proveniente das subsidiárias da Meta Platforms: Facebook, Instagram e WhatsApp. Nem todos os relatórios são, ao final, confirmados como contendo material de abuso sexual infantil, conhecido pela sigla CSAM.

Ainda assim, o volume de CSAM suspeito que a Amazon detectou ao longo de seu pipeline de IA em 2025 chocou especialistas em proteção infantil entrevistados pela Bloomberg News. As centenas de milhares de relatórios feitos ao NCMEC marcaram um aumento drástico para a empresa. Em 2024, a Amazon e todas as suas subsidiárias registraram, juntas, 64.195 relatórios.

— Isso é realmente um ponto fora da curva — disse Fallon McNulty, diretora executiva da CyberTipline do NCMEC — a entidade à qual plataformas de redes sociais, provedores de nuvem e outras empresas sediadas nos EUA são legalmente obrigadas a reportar suspeitas de CSAM. — Receber um volume tão alto ao longo do ano levanta muitas questões sobre de onde esses dados estão vindo e quais salvaguardas foram adotadas.

McNulty afirmou, em entrevista, que tem pouca visibilidade sobre o que está impulsionando o aumento de material sexualmente exploratório nos conjuntos iniciais de dados de treinamento da Amazon. Segundo ela, a Amazon forneceu “muito pouca ou quase nenhuma informação” em seus relatórios sobre a origem original do material ilícito, quem o compartilhou ou se ele ainda está ativamente disponível na internet.

Fonte: Globo.com