Blog Prontidão Total NO TWITTER

Blog Prontidão Total NO  TWITTER
SIGA-NOS NO TWITTER
Mostrando postagens com marcador uniforme colegial. Mostrar todas as postagens
Mostrando postagens com marcador uniforme colegial. Mostrar todas as postagens

domingo, 9 de julho de 2023

Sexo em tempos de inteligência artificial - Revista Oeste

Dagomir Marquezi

O uso de IA em atividades pornográficas levanta questões morais complexas


Foto: Shutterstock
 
Três homens entram num banheiro público. Encontram uma faxineira muito jovem fazendo seu trabalho. Os três dominam sexualmente a garota, ali mesmo. São insaciáveis. E, o mais chocante, a menina gosta daquilo. E pede mais. Quando os rapazes finalmente se dão por satisfeitos, partem do banheiro sem dizer nada. E a jovem funcionária volta a limpar os mictórios.

Qualquer menina que fosse filmada fazendo esse tipo de sexo brutal e pervertido deveria estar protegida pela lei
Mas aquela faxineira de seios fartos não conta com nenhum amparo legal. Isso porque ela não existe. 
Assim como não existem os homens que entraram naquele banheiro.

Esse é um hentai, um vídeo pornô made in Japan – país onde a obsessão dos homens por meninas com uniforme de colegial é uma marca da cultura nacional. Por ser uma animação, nada daquilo aconteceu. Ninguém abusou, ninguém foi abusada.  
Uma personagem feita de pixels não vai procurar uma delegacia. Nenhuma ONG vai se preocupar com ela. 

Essa japonesinha com seu balde e escova é apenas uma das centenas de mulheres e homens praticando sexo bizarro nos meandros da internet. Ninguém liga mais para isso. Mas um novo gênero de pornografia está dando o que falar. E o que pensar.

O jornal Washington Post publicou, na semana passada, uma matéria sobre o aumento do tráfego de imagens envolvendo sexo com crianças. 
São fotos realistas criadas em sites de criação de arte por inteligência artificial, como o Dall-e e o Midjourney

Os fóruns de pedófilos da dark web revelam uma excitação maior que a normal com essas imagens. 
Como no caso do hentai japonês, nenhuma criança foi abusada para que aquelas imagens se tornassem possíveis.

As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças

A esta altura, é muito ingênuo imaginar que cenas repugnantes para a maioria de nós não sejam produzidas desde sempre e exibidas para quem se interesse por elas. 
Um programa como a Stable Diffusion, segundo o Washington Post, apenas acelerou o processo: “Aumentaram a velocidade e a escala com que os pedófilos podem criar novas imagens explícitas, porque as ferramentas exigem menos sofisticação técnica do que os métodos anteriores, como sobrepor rostos de crianças em corpos de adultos usando deepfakes, e podem gerar rapidamente muitas imagens de um único comando”.Foto: Olivia Brown/Shutterstock

“Porcentagem muito, muito pequena”

As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças. O executivo-chefe da Stability AI (que criou o programa Stable Diffusion, aparentemente usado na produção de algumas dessas imagens) garantiu que a empresa colabora com qualquer investigação legal, além de criar um filtro para imagens explícitas. Segundo a matéria do Washington Post, é relativamente fácil driblar esse filtro, mudando o código de programação.

O executivo declarou ao jornal: “Em última análise, é responsabilidade das pessoas saber se elas são éticas, morais e legais na forma como operam essa tecnologia. As coisas ruins que as pessoas criam (…) serão uma porcentagem muito, muito pequena do uso total”. Parece uma declaração omissa, irresponsável e insensível. Mas o dirigente da Stability AI, em outras palavras, individualizou a responsabilidade por atos criminosos. Mal comparando, é a diferença entre os que defendem a ideia do chamado “racismo estrutural” e os que consideram que o preconceito é uma questão que deve ser tratada como um ato criminoso individual (ou grupal, mas não generalizado).
 
O amparo da lei
A questão é complexa até em termos legais nos Estados Unidos. Ainda segundo o Washington Post, “alguns analistas jurídicos argumentaram que o material cai numa zona legal cinzenta, porque imagens totalmente geradas por IA não retratam uma criança real sendo prejudicada”. 
Já existe uma lei (a nº 2.256) no código penal norte-americano que determina que “‘pornografia infantil’ significa qualquer representação visual, incluindo qualquer fotografia, filme, vídeo, imagem gerada por computador, feita ou produzida por meios eletrônicos, mecânicos ou outros, de conduta sexualmente explícita”.

No Brasil, o Estatuto da Criança e do Adolescente tipifica como crime “produzir, participar e agenciar a produção de pornografia infantil (art. 240); vender, expor à venda (art. 241), trocar, disponibilizar ou transmitir pornografia infantil, assim como assegurar os meios ou serviços para tanto (art. 241-A); adquirir, possuir ou armazenar, em qualquer meio, a pornografia infantil (art. 241-B); simular a participação de crianças e adolescentes em produções pornográficas, por meio de montagens (art. 241-C). Além disso, a atividade de aliciar crianças, pela internet ou qualquer outro meio, com o objetivo de praticar atos sexuais com elas, ou para fazê-las se exibirem de forma pornográfica, também é crime, com pena de reclusão de um a três anos, e multa”.  
Um projeto de lei de autoria do senador Flávio Bolsonaro (PL-RJ) está em tramitação visando endurecer essas penas.
 
O crime do deepfake
Outra atividade ligada à inteligência artificial que está provocando reações de revolta é o chamado deepfake. 
Consiste em encaixar o rosto de uma pessoa (quase sempre o de uma mulher) no corpo de uma atriz de filme pornô em plena ação. 
O programa encaixa o rosto de uma mulher qualquer no de outra que esteja praticando sexo explícito. 
O mesmo princípio técnico que fez a falecida Elis Regina “cantar” com sua filha Maria Rita num recente comercial de automóveis.

A funcionária pública norte-americana Nina Jankowicz, que exercia um cargo numa das agências de segurança do governo Joe Biden, escreveu sobre esse drama para a revista The Atlantic. 
Ela ficou sabendo que seu rosto havia sido “encaixado” por alguém no corpo de uma estrela de filmes pornô. 
Sem conhecer o autor do vídeo, não havia muito o que fazer.

No seu artigo, Jankowicz foi honesta o suficiente para não cair no vitimismo político. 
Ela sabe que qualquer mulher famosa pode ser apanhada num deepfake. Cita filmes que usaram os rostos de Hillary Clinton e da ativista Greta Thunberg, além da cantora Taylor Swift e da atriz Emma Watson. Entre outras vítimas da falsificação estavam políticas do Partido Democrata (Kamala Harris e Nancy Pelosi) e do Partido Republicano (Nikki Haley e Elise Stefanik).

O resultado do deepfake geralmente é meio grosseiro. O tom da pele do corpo nem sempre é o mesmo do rosto, as expressões são forçadas e mudam repentinamente. 
De maneira geral, fica claro que aquilo é uma falsificação. 
Mas isso não diminui a violência moral e a covardia de quem o produz.Exemplo de uso de deepfake em rosto humano | Foto: Shutterstock

Produzir ou ser apanhado com material sexualizando crianças é crime pesado. 
Idem a produção, o tráfico e a divulgação de vídeos deepfake. 
Mas quem acha que vai reprimir esse fluxo está dizendo que pode enxugar gelo com uma flanela.

Não existe maneira de eliminar essas atividades criminosas ligadas à inteligência artificial,
provavelmente nem em países extremamente controlados, como a Coreia do Norte ou o Irã. Esse material nasce em computadores anônimos e encontra seus caminhos para chegar aos interessados. Faz parte do lado sombrio da natureza humana.
 
Freud e o pântano pornográfico
Os que acham que combatendo a inteligência artificial vão acabar com imagens de pedofilia ou deepfakes estão querendo desinventar o automóvel para evitar acidentes de trânsito. Voltar no tempo não tem lógica, não tem sentido, é um ato obscurantista e reacionário.

Os mesmos programas que criam imagens de crianças sexualizadas produzem excelentes livros infantis, histórias e fantasias visuais cheias de imaginação, ainda que artificial. Esses aplicativos estão democratizando a capacidade de produzir cultura. Apenas uma pequena minoria chafurda nesse pântano pornográfico. Mas existem questões mais amplas e sutis para reflexão.
 
 
(...)