IA identifica padrões de abuso sexual de crianças e adolescentes sem acessar conteúdos explícitos

Técnicas de visão computacional verificam imagens e vídeos detectando relações entre pessoas, objetos e ações para preservar a privacidade das vítimas e auxiliar investigações

Por Juliana Vicentini

O Brasil possui a maior quantidade de denúncias de abuso sexual infantil online, apurou a Agência Brasil. Em 2025, 64% dos contatos recebidos pela Safernet Brasil envolveram crimes dessa natureza. Uma em cada cinco crianças ou adolescentes entre 12 e 17 anos foi vítima dessa violência facilitada pela tecnologia, o que corresponde a 3 milhões de pessoas no país, afirma a Unicef.

O abuso e a exploração sexual são amplificados por canais digitais presentes no dia a dia. A pesquisa mostra que 64% dos relatos ocorreram em aplicativos de mensagens, sendo o Instagram (59%) e WhatsApp (51%) os mais utilizados pelos criminosos. As plataformas de jogos online foram mencionadas por 12% das vítimas, ficando logo em seguida.

No âmbito mundial, a CyberTipline recebeu 21,3 milhões de denúncias que incluíam mais de 61,8 milhões de imagens e vídeos suspeitos de exploração sexual infantil online em 2025, apurou a Missing Kids. Os dados indicam que a quantidade de denúncias é superior ao que a análise manual consegue investigar, por isso, as tecnologias são aliadas na verificação desse conteúdo.

Identificação de material sensível por padrões conhecidos

O hash-matching (HM) é um dos métodos utilizados globalmente para auxiliar na verificação de material de abuso sexual infantil. “Podemos traduzir esse termo para “correspondência de hash”, considerando que na computação o hash é o cálculo de um identificador único de um elemento”, explica Camila Laranjeira, professora no Instituto Federal de Minas Gerais (IFMG – Ribeirão das Neves).

Ele funciona como uma checagem de equivalência entre arquivos online. “No contexto de imagens de abuso é comum extrair e guardar essa impressão digital para facilitar a busca por republicações ou novos compartilhamentos da mesma imagem. A lógica é: se duas imagens têm o mesmo valor “hash”, pode-se dizer com segurança que são a mesma”, diz Camila. 

Armazenar apenas o código numérico dos conteúdos é uma forma mais efetiva de monitoramento, rastreio e preservação da privacidade. “Guardar a impressão digital é mais seguro por ser somente um código alfanumérico que não expõe as pessoas nem o ato do abuso, mas ainda permite encontrar repostagens da mesma imagem”, completa a professora do IFMG.

A técnica é utilizada por plataformas digitais, organizações de proteção infantil e forças policiais para detectar rapidamente materiais já identificados como abusivos. Em 2024, o National Center for Missing & Exploited Children (NCMEC) compartilhou aproximadamente 10 milhões de valores de hash relacionados a esse tipo de conteúdo, aponta a Missing Kids.

Bases de hash são eficazes para identificar conteúdos conhecidos. “O problema é que a produção de material novo tem crescido muito nos últimos anos, por isso, faz mais sentido pensar em abordagens capazes de identificar o abuso em imagens nunca vistas. As que são baseadas em visão computacional conseguem analisar o conteúdo de uma imagem, estimando elementos que ajudam a classificar um potencial abuso”, diz Laranjeira.

A IA na otimização da triagem de conteúdos

As ferramentas de IA não substituem o hash-matching, mas acrescentam uma camada de análise contextual às investigações em imagens não catalogadas. O desenvolvimento dessas tecnologias depende de uma atuação conjunta. “Para poder trabalhar com esse assunto na universidade, colaboramos com agentes policiais, que pesquisam esse tipo de conteúdo em seus mestrados e doutorados. Temos colaborações com a Polícia Federal e a Polícia Técnico-Científica do Estado de São Paulo”, explica Sandra Ávila, professora do Instituto de Computação (IC) da Unicamp.

A parceria é necessária porque os conteúdos investigados são ilegais e têm acesso restrito às autoridades. “A gente não executa os experimentos, somente os peritos podem ter contato com os materiais”, conta Ávila. Ainda assim, “mesmo não tendo exposição direta porque não estamos vendo, a partir do momento que estamos falando, lendo sobre esse tema, estamos nos expondo ao assunto”, detalha a professora.

Para superar a questão legal e ética, pesquisadores criaram o CSA-Graphs (grafos de abuso sexual infantil). É uma ferramenta que permite desenvolver métodos de detecção de padrões de abuso e violência sexual, sem ter acesso ao conteúdo explícito, preservando a privacidade de crianças e adolescentes. O sistema utiliza informações do banco de dados mantido pela Polícia Federal que reúne imagens que ajudam a aperfeiçoar e a avaliar ferramentas de IA.

“Enviamos um algoritmo desenvolvido por nós para ser executado exclusivamente por peritos. Após a execução, eles nos retornam uma base de dados derivada com informações não visuais sobre o conteúdo das imagens. A partir disso, torna-se possível treinar modelos de IA para identificar padrões relevantes, sem a necessidade de acessar diretamente imagens sensíveis”, afirma Carlos Caetano, pesquisador do Recod.ai da Unicamp.

Essa técnica é baseada em grafos que são representações estruturais que funcionam como uma abstração da imagem e preservam informações para refinar a IA. O modelo identifica grafos de cenas (objetos e suas relações), grafos de pose (informações referentes a configurações do corpo humano) e possíveis relações espaciais entre eles. “O foco está em entender o contexto: quem está na imagem, como esses elementos estão organizados e quais relações podem indicar uma situação de abuso”, diz Carlos.

“Esses dados permitem que modelos de IA identifiquem padrões recorrentes. A partir disso, eles conseguem reconhecer combinações de elementos e relações que merecem maior atenção. O objetivo não é interpretar a imagem de forma definitiva, mas sim auxiliar na triagem, sinalizando conteúdos que devem ser analisados com mais cuidado por especialistas”, esclarece o pesquisador.

As representações geradas pelos modelos não amplificam esse tipo de crime. “Elas não contêm informação para reconstruir uma imagem original e capturam apenas estruturas e relações, sem armazenar detalhes visuais como aparência, textura ou identidade. O acesso a essa base de dados derivada é controlado, sendo disponibilizada apenas para fins científicos”, detalha Carlos.

Pesquisadores desenvolvem tarefas substitutas, chamadas de proxies. Elas são definidas a partir das informações disponibilizadas pela Polícia Federal e são utilizadas para “treinar diretamente um classificador para identificar imagens de abuso e não abuso sexual infantil”, explica Ávila. Dentre as tarefas, estão a classificação de “cenas suspeitas, que podem ser um quarto, um banheiro, principalmente cenas internas, estimativa de idade, identificação de faixa etária, presença de nudez e pornografia, e identificação de objetos”, pontua a professora.

Desafios técnicos da IA

O trabalho desenvolvido enfrenta alguns desafios técnicos como a “identificação de padrões complexos em imagens variadas, muitas vezes com baixa qualidade ou tentativas de ocultação por criminosos, por isso nem sempre os elementos mais importantes estão visíveis”, compartilha Carlos. Além disso, o armazenamento “tem que ser de acesso restrito. As máquinas utilizadas só podem ser acessadas por pessoas autorizadas, e os dados devem estar criptografados”, adverte Sandra.

A pesquisadora da Unicamp reflete sobre o uso em realidades operacionais diversas. “Para essa identificação de padrões precisamos considerar as diferentes condições operacionais de trabalho. Pode ter um lugar com tecnologia avançada para executar determinados modelos e outros que terão que ser executados no laptop. Elaborar diferentes tipos de solução faz parte também de repensar o problema”.

Embora a IA seja uma ferramenta importante, a interpretação dos dados depende do trabalho de um especialista. “Ela pode identificar padrões e ajudar a filtrar grandes volumes de dados, mas não tem a compreensão completa de contexto, intenção ou nuances sociais da mesma forma que um ser humano. Os peritos são fundamentais para validar os resultados, interpretar casos complexos e tomar decisões finais”, enfatiza Carlos.

Ética e vieses do modelo

“As bases de dados não deveriam ter imagens de crianças, até porque o consentimento de uso teria que ser dado por uma pessoa adulta. É bastante complicado. Se queremos justamente proteger as crianças, não será usando suas imagens que faremos isso. Estamos expondo-as mais uma vez,  e quando falamos de IA, automatizamos essa escala, adverte Sandra. Para mitigar o problema, “a pesquisa se apoia em informações indiretas, sem acessar diretamente o conteúdo”, completa Carlos.

O enfrentamento desse      desafio      deve      considerar várias perspectivas e campos do conhecimento. “Precisamos pensar o problema para diferentes contextos, para diferentes regiões no Brasil. Precisamos também dialogar com diferentes áreas, ou seja, entender como as pessoas enxergam o problema. Por isso não pode ser só do ponto de vista da computação, o diálogo com diferentes áreas é imprescindível”, reflete a professora da Unicamp.

O desenvolvimento de sistemas de IA também levanta questões sobre vieses. “Ao fazer essa extração de padrões nas imagens, as imagens que fazem parte do processo de aprendizado desses padrões refletem escolhas do que pode ser aprendido ou não pelos modelos, o que vai funcionar e o que não vai. O que estamos considerando como dado? E o que não é? Quais são as pessoas que estão sendo incluídas? E, principalmente, quais são as pessoas que estão sendo excluídas?”, questiona Sandra.

Os indivíduos que fazem parte disso acabam influenciando o modelo e os resultados. Sandra explica que as pessoas envolvidas no processo carregam seus próprios vieses. “A partir desses vieses, o que ficou de fora? Quais foram as decisões tomadas? Temos que fazer muitas perguntas: com quem, para quem e por quem isso é criado”, adverte.

Enfrentamento do crime

Pelo Estatuto Digital da Criança e do Adolescente, abuso e exploração sexual são facilitados por sistemas digitais. Por isso, determina que fornecedores de produtos e serviços online atuem de maneira preventiva e reativa. Dentre as ações previstas, a prevenção de contatos indevidos e conteúdos sexualizados; verificação de idade para impedir que essas crianças sejam expostas; rápida remoção de conteúdos ilegais; responsabilização das plataformas.

A articulação de outras estratégias também contribui para combater o crime. Destacam-se a implementação de políticas públicas para a proteção no ambiente digital; atuação efetiva do sistema judiciário para investigação e responsabilização; disponibilização de serviços de acolhimento, proteção e reparação às vítimas; mobilização da sociedade civil na prevenção e denúncia; ações educomunicativas de proteção, pontua a UNB-PNUD.

Juliana Vicentini tem pós-doutorado em comunicação (USP) e é especialista em jornalismo científico (Labjor/Unicamp).

  • Material produzido com o apoio da Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp), Brasil (Processo nº 2025/26523-7), vinculado ao Projeto Horus do Recod.ai (Processo nº 23/12865-8).
O 18 de maio é o Dia Nacional de Combate ao Abuso e à Exploração Sexual de Crianças e Adolescentes, instituído pela Lei nº 9.970/2000