O uso de IA em atividades pornográficas levanta questões morais complexas
Foto: Shutterstock
Qualquer menina que fosse filmada fazendo esse tipo de sexo brutal e pervertido deveria estar protegida pela lei.
Esse é um hentai, um vídeo pornô made in Japan – país onde a obsessão dos homens por meninas com uniforme de colegial é uma marca da cultura nacional. Por ser uma animação, nada daquilo aconteceu. Ninguém abusou, ninguém foi abusada.
Essa japonesinha com seu balde e escova é apenas uma das centenas de mulheres e homens praticando sexo bizarro nos meandros da internet. Ninguém liga mais para isso. Mas um novo gênero de pornografia está dando o que falar. E o que pensar.
O jornal Washington Post publicou, na semana passada, uma matéria sobre o aumento do tráfego de imagens envolvendo sexo com crianças.
As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças
A esta altura, é muito ingênuo imaginar que cenas repugnantes para a maioria de nós não sejam produzidas desde sempre e exibidas para quem se interesse por elas.
“Porcentagem muito, muito pequena”
As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças. O executivo-chefe da Stability AI (que criou o programa Stable Diffusion, aparentemente usado na produção de algumas dessas imagens) garantiu que a empresa colabora com qualquer investigação legal, além de criar um filtro para imagens explícitas. Segundo a matéria do Washington Post, é relativamente fácil driblar esse filtro, mudando o código de programação.
O executivo declarou ao jornal: “Em última análise, é responsabilidade das pessoas saber se elas são éticas, morais e legais na forma como operam essa tecnologia. As coisas ruins que as pessoas criam (…) serão uma porcentagem muito, muito pequena do uso total”. Parece uma declaração omissa, irresponsável e insensível. Mas o dirigente da Stability AI, em outras palavras, individualizou a responsabilidade por atos criminosos. Mal comparando, é a diferença entre os que defendem a ideia do chamado “racismo estrutural” e os que consideram que o preconceito é uma questão que deve ser tratada como um ato criminoso individual (ou grupal, mas não generalizado).
O amparo da lei
A questão é complexa até em termos legais nos Estados Unidos. Ainda segundo o Washington Post, “alguns analistas jurídicos argumentaram que o material cai numa zona legal cinzenta, porque imagens totalmente geradas por IA não retratam uma criança real sendo prejudicada”.
No Brasil, o Estatuto da Criança e do Adolescente tipifica como crime “produzir, participar e agenciar a produção de pornografia infantil (art. 240); vender, expor à venda (art. 241), trocar, disponibilizar ou transmitir pornografia infantil, assim como assegurar os meios ou serviços para tanto (art. 241-A); adquirir, possuir ou armazenar, em qualquer meio, a pornografia infantil (art. 241-B); simular a participação de crianças e adolescentes em produções pornográficas, por meio de montagens (art. 241-C). Além disso, a atividade de aliciar crianças, pela internet ou qualquer outro meio, com o objetivo de praticar atos sexuais com elas, ou para fazê-las se exibirem de forma pornográfica, também é crime, com pena de reclusão de um a três anos, e multa”.
O crime do deepfake
Outra atividade ligada à inteligência artificial que está provocando reações de revolta é o chamado deepfake.
A funcionária pública norte-americana Nina Jankowicz, que exercia um cargo numa das agências de segurança do governo Joe Biden, escreveu sobre esse drama para a revista The Atlantic.
No seu artigo, Jankowicz foi honesta o suficiente para não cair no vitimismo político.
O resultado do deepfake geralmente é meio grosseiro. O tom da pele do corpo nem sempre é o mesmo do rosto, as expressões são forçadas e mudam repentinamente.
Produzir ou ser apanhado com material sexualizando crianças é crime pesado.
Não existe maneira de eliminar essas atividades criminosas ligadas à inteligência artificial, provavelmente nem em países extremamente controlados, como a Coreia do Norte ou o Irã. Esse material nasce em computadores anônimos e encontra seus caminhos para chegar aos interessados. Faz parte do lado sombrio da natureza humana.
Os que acham que combatendo a inteligência artificial vão acabar com imagens de pedofilia ou deepfakes estão querendo desinventar o automóvel para evitar acidentes de trânsito. Voltar no tempo não tem lógica, não tem sentido, é um ato obscurantista e reacionário.
Os mesmos programas que criam imagens de crianças sexualizadas produzem excelentes livros infantis, histórias e fantasias visuais cheias de imaginação, ainda que artificial. Esses aplicativos estão democratizando a capacidade de produzir cultura. Apenas uma pequena minoria chafurda nesse pântano pornográfico. Mas existem questões mais amplas e sutis para reflexão.
Leia também “Redes de pedofilia assombram o Instagram”