/ Jul 12, 2025

Imagens de abuso infantil geradas por IA inundam internet – 12/07/2025 – Tec

Uma nova onda de material de abuso sexual infantil criado por inteligência artificial está atingindo um ponto crítico de realismo, ameaçando sobrecarregar as autoridades.

Nos últimos dois anos, novas tecnologias de IA tornaram mais fácil para criminosos criar imagens e vídeos explícitos de crianças. Agora, pesquisadores de organizações como a Internet Watch Foundation (Fundação de Observação da Internet) e o NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas, na sigla em inglês) estão alertando sobre um aumento de novo material este ano que é quase indistinguível de abusos reais.

Novos dados divulgados na quinta-feira (10) pela Internet Watch Foundation, uma organização sem fins lucrativos britânica que investiga e coleta denúncias de imagens de abuso sexual infantil, identificaram 1.286 vídeos de abuso sexual infantil gerados por IA até agora neste ano globalmente, em comparação com apenas dois no primeiro semestre de 2024.

Os vídeos tornaram-se mais fluidos e detalhados, disseram os analistas da organização, devido a melhorias na tecnologia e colaboração entre grupos em partes de difícil acesso da internet chamadas dark web para produzi-los.

O aumento de vídeos realistas soma-se a uma explosão de material de abuso sexual infantil produzido por IA. Nos Estados Unidos, o Centro Nacional para Crianças Desaparecidas e Exploradas disse que recebeu 485 mil denúncias destes conteúdos, incluindo imagens estáticas e vídeos, no primeiro semestre do ano, em comparação com 67 mil durante todo o ano de 2024.

“É um canário na mina de carvão”, disse Derek Ray-Hill, CEO interino da Internet Watch Foundation. O conteúdo gerado por IA pode conter imagens de crianças reais junto com imagens falsas, disse ele, acrescentando: “Há um tsunami absoluto que estamos vendo”.

A enxurrada de material de IA ameaça tornar o trabalho das forças policiais ainda mais difícil. Embora ainda seja uma fração minúscula da quantidade total de material de abuso sexual infantil encontrado online, que somou denúncias na casa dos milhões, a polícia tem sido inundada com pedidos para investigar imagens geradas por IA, desviando-os da perseguição daqueles envolvidos em abuso infantil.

As autoridades policiais dizem que as leis federais contra material de abuso sexual infantil e obscenidade abrangem imagens geradas por IA, incluindo conteúdo totalmente criado pela tecnologia e que não contém imagens reais de crianças.

Além dos estatutos federais, legisladores estaduais também correram para criminalizar representações de abuso sexual infantil geradas por IA, promulgando mais de três dezenas de leis estaduais nos últimos anos.

Mas os tribunais estão apenas começando a lidar com as implicações legais, disseram especialistas jurídicos.

A nova tecnologia deriva da IA generativa, que explodiu em popularidade com a introdução do ChatGPT da OpenAI em 2022. Logo depois, empresas introduziram geradores de imagens e vídeos de IA, levando as forças policiais e grupos de segurança infantil a alertar sobre questões de segurança.

Grande parte do novo conteúdo de IA inclui imagens reais de abuso sexual infantil que são reutilizadas em novos vídeos e imagens estáticas. Parte do material usa fotos de crianças extraídas de sites escolares e redes sociais. As imagens são tipicamente compartilhadas entre usuários em fóruns, via mensagens em redes sociais e outras plataformas online.

Em dezembro de 2023, pesquisadores do Stanford Internet Observatory encontraram centenas de exemplos de material de abuso sexual infantil em um conjunto de dados usado em uma versão inicial do gerador de imagens Stable Diffusion. A Stability AI, que administra o Stable Diffusion, disse que não esteve envolvida no treinamento de dados do modelo estudado por Stanford. Afirmou que uma empresa externa havia desenvolvido essa versão antes da Stability AI assumir o desenvolvimento exclusivo do gerador de imagens.

Apenas nos últimos meses as ferramentas de IA se tornaram boas o suficiente para enganar o olho humano com uma imagem ou vídeo, evitando alguns dos indícios anteriores como dedos demais em uma mão, fundos desfocados ou transições bruscas entre quadros de vídeo.

A Internet Watch Foundation encontrou exemplos no mês passado de indivíduos em um fórum da web subterrânea elogiando a tecnologia mais recente, onde comentaram sobre o quão realistas eram um novo lote de vídeos de abuso sexual infantil gerados por IA. Eles destacaram como os vídeos rodavam suavemente, continham fundos detalhados com pinturas nas paredes e móveis, e retratavam múltiplos indivíduos envolvidos em atos violentos e ilegais contra menores.

Cerca de 35 empresas de tecnologia agora relatam imagens de abuso sexual infantil geradas por IA ao Centro Nacional para Crianças Desaparecidas e Exploradas, disse John Shehan, um alto funcionário do grupo, embora algumas sejam irregulares em sua abordagem. As empresas que apresentam mais denúncias geralmente são mais proativas em encontrar e relatar imagens de abuso sexual infantil, disse ele.

A Amazon, que oferece ferramentas de IA através de seu serviço de computação em nuvem, relatou 380 mil incidentes de material de abuso sexual infantil gerado por IA no primeiro semestre do ano, que foram removidos. A OpenAI relatou 75 mil casos. A Stability AI relatou menos de 30.

A Stability AI disse que introduziu salvaguardas para aprimorar seus padrões de segurança e “está profundamente comprometida em prevenir o uso indevido de nossa tecnologia, particularmente na criação e disseminação de conteúdo prejudicial, incluindo materiais de abuso sexual de crianças”.

Amazon e OpenAI, quando solicitadas a comentar, apontaram para relatórios que publicaram online explicando seus esforços para detectar e relatar este tipo de material.

Algumas redes criminosas estão usando IA para criar imagens sexualmente explícitas de menores e depois chantagear as crianças, disse um funcionário do Departamento de Justiça, que pediu anonimato para discutir investigações privadas. Outras crianças usam aplicativos que pegam imagens de pessoas reais e as despem, criando o que é conhecido como deepfake de nudez.

Embora imagens de abuso sexual contendo crianças reais sejam claramente ilegais, a lei ainda está evoluindo sobre materiais gerados inteiramente por inteligência artificial, disseram alguns estudiosos do direito.

Em março, um homem de Wisconsin acusado pelo Departamento de Justiça de criar, distribuir e possuir ilegalmente imagens totalmente sintéticas de abuso sexual infantil contestou com sucesso uma das acusações contra ele com base na Primeira Emenda. O juiz James Peterson do Tribunal Distrital dos EUA para o Distrito Ocidental de Wisconsin disse que “a Primeira Emenda geralmente protege o direito de possuir material obsceno em casa” desde que não seja “pornografia infantil real”.

Mas o julgamento prosseguirá com as outras acusações, relacionadas à produção e distribuição de 13 mil imagens criadas com um gerador de imagens. O homem tentou compartilhar imagens com um menor no Instagram, que o denunciou, segundo promotores federais.

“O Departamento de Justiça vê todas as formas de material de abuso sexual infantil gerado por IA como uma ameaça séria e emergente”, disse Matt Galeotti, chefe da divisão criminal do Departamento de Justiça.

Notícias Recentes

Travel News

Lifestyle News

Fashion News

Copyright 2025 Expressa Noticias – Todos os direitos reservados.