SoundHound adiciona poder de visão à sua plataforma de voz
Sistema Vision AI integra recursos para criar uma IA “que vê o que você vê, ouve o que você diz e responde no momento”
14/08/202509/11/2023
Por Ricardo Marques
A capacidade de converter textos em imagens que parecem reais pôs a inteligência artificial na mira das organizações que combatem a circulação de material relacionado a abuso sexual infantil (CSAM, na sigla em inglês), entre as quais a Internet Watch Foundation (IWF), que acaba de divulgar um relatório a respeito do tema. Fundada há 25 anos no Reino Unido, a IWF se preocupa especialmente com o potencial da IA generativa e recomenda que sejam adotadas, de imediato, políticas e leis capazes de inibir essa prática.
De acordo com o relatório, no período de um mês foram postadas em um único fórum da dark web 20.254 imagens geradas com recursos de IA. Desse total, 11.108 imagens com mais probabilidade de serem criminosas foram selecionadas para a avaliação de 12 analistas da IWF, que dedicaram 87,5 horas a esse trabalho e concluíram que aproximadamente 3 mil imagens eram ilegais e criminosas.
A IWF, que se especializou em ocorrências na internet, explicou que o conteúdo gerado por IA compreende uma proporção pequena de suas atividades normais, mas destacou que uma das características definidoras dessa tecnologia é seu potencial de crescimento rápido: “Os criminosos podem baixar legalmente tudo o que precisam para gerar essas imagens e, em seguida, produzem quantas imagens quiserem – off-line, sem oportunidade de detecção. A maioria dos CSAM de IA encontrados agora são realistas o suficiente para serem tratados como CSAM reais”.
A organização também acentuou que o CSAM de IA mais convincente é visualmente indistinguível do CSAM real, mesmo para analistas treinados: “A tecnologia de conversão de texto para imagem só melhorará daqui para a frente e representará um novo desafio para a IWF e as agências de aplicação da lei. Existem agora provas razoáveis de que a IA aumentou o potencial de revitimização de vítimas conhecidas de abuso sexual infantil e de vitimização de crianças famosas e de crianças conhecidas dos perpetradores. A IWF encontrou muitos exemplos de imagens geradas por IA apresentando vítimas conhecidas e crianças famosas”, acrescentou.
Em suas conclusões, o relatório disse que o progresso tecnológico tem um enorme potencial para melhorar a vida das pessoas e ainda é cedo para saber se a IA generativa ajuda a promover o abuso sexual infantil, mas alertou: “É necessário resolver agora alguns dos problemas relacionados a imagens proibidas geradas por IA, a fim se serem criados mecanismos contra o crescimento desse tipo de conteúdo no futuro”.
#abuso sexual infantil#dark web#IA generativa#imagens manipuladas#inteligência artificial#pedofilia
Sistema Vision AI integra recursos para criar uma IA “que vê o que você vê, ouve o que você diz e responde no momento”
14/08/2025IA da rede social de Trump afirma que eleição de 2020 não foi fraudada, que as tarifas não impulsionam as bolsas e que Obama é o mais popular
13/08/2025Os usuários serão orientados a fazer pausas em conversas longas e deixarão de receber conselhos para a solução de problemas pessoais
11/08/2025