Blog Prontidão Total NO TWITTER

Blog Prontidão Total NO  TWITTER
SIGA-NOS NO TWITTER
Mostrando postagens com marcador dark web. Mostrar todas as postagens
Mostrando postagens com marcador dark web. Mostrar todas as postagens

domingo, 9 de julho de 2023

Sexo em tempos de inteligência artificial - Revista Oeste

Dagomir Marquezi

O uso de IA em atividades pornográficas levanta questões morais complexas


Foto: Shutterstock
 
Três homens entram num banheiro público. Encontram uma faxineira muito jovem fazendo seu trabalho. Os três dominam sexualmente a garota, ali mesmo. São insaciáveis. E, o mais chocante, a menina gosta daquilo. E pede mais. Quando os rapazes finalmente se dão por satisfeitos, partem do banheiro sem dizer nada. E a jovem funcionária volta a limpar os mictórios.

Qualquer menina que fosse filmada fazendo esse tipo de sexo brutal e pervertido deveria estar protegida pela lei
Mas aquela faxineira de seios fartos não conta com nenhum amparo legal. Isso porque ela não existe. 
Assim como não existem os homens que entraram naquele banheiro.

Esse é um hentai, um vídeo pornô made in Japan – país onde a obsessão dos homens por meninas com uniforme de colegial é uma marca da cultura nacional. Por ser uma animação, nada daquilo aconteceu. Ninguém abusou, ninguém foi abusada.  
Uma personagem feita de pixels não vai procurar uma delegacia. Nenhuma ONG vai se preocupar com ela. 

Essa japonesinha com seu balde e escova é apenas uma das centenas de mulheres e homens praticando sexo bizarro nos meandros da internet. Ninguém liga mais para isso. Mas um novo gênero de pornografia está dando o que falar. E o que pensar.

O jornal Washington Post publicou, na semana passada, uma matéria sobre o aumento do tráfego de imagens envolvendo sexo com crianças. 
São fotos realistas criadas em sites de criação de arte por inteligência artificial, como o Dall-e e o Midjourney

Os fóruns de pedófilos da dark web revelam uma excitação maior que a normal com essas imagens. 
Como no caso do hentai japonês, nenhuma criança foi abusada para que aquelas imagens se tornassem possíveis.

As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças

A esta altura, é muito ingênuo imaginar que cenas repugnantes para a maioria de nós não sejam produzidas desde sempre e exibidas para quem se interesse por elas. 
Um programa como a Stable Diffusion, segundo o Washington Post, apenas acelerou o processo: “Aumentaram a velocidade e a escala com que os pedófilos podem criar novas imagens explícitas, porque as ferramentas exigem menos sofisticação técnica do que os métodos anteriores, como sobrepor rostos de crianças em corpos de adultos usando deepfakes, e podem gerar rapidamente muitas imagens de um único comando”.Foto: Olivia Brown/Shutterstock

“Porcentagem muito, muito pequena”

As empresas que disponibilizam aplicativos e programas de criação de imagens digitais declaram que estão fazendo todo o possível para banir a criação que envolve imagens de abuso de crianças. O executivo-chefe da Stability AI (que criou o programa Stable Diffusion, aparentemente usado na produção de algumas dessas imagens) garantiu que a empresa colabora com qualquer investigação legal, além de criar um filtro para imagens explícitas. Segundo a matéria do Washington Post, é relativamente fácil driblar esse filtro, mudando o código de programação.

O executivo declarou ao jornal: “Em última análise, é responsabilidade das pessoas saber se elas são éticas, morais e legais na forma como operam essa tecnologia. As coisas ruins que as pessoas criam (…) serão uma porcentagem muito, muito pequena do uso total”. Parece uma declaração omissa, irresponsável e insensível. Mas o dirigente da Stability AI, em outras palavras, individualizou a responsabilidade por atos criminosos. Mal comparando, é a diferença entre os que defendem a ideia do chamado “racismo estrutural” e os que consideram que o preconceito é uma questão que deve ser tratada como um ato criminoso individual (ou grupal, mas não generalizado).
 
O amparo da lei
A questão é complexa até em termos legais nos Estados Unidos. Ainda segundo o Washington Post, “alguns analistas jurídicos argumentaram que o material cai numa zona legal cinzenta, porque imagens totalmente geradas por IA não retratam uma criança real sendo prejudicada”. 
Já existe uma lei (a nº 2.256) no código penal norte-americano que determina que “‘pornografia infantil’ significa qualquer representação visual, incluindo qualquer fotografia, filme, vídeo, imagem gerada por computador, feita ou produzida por meios eletrônicos, mecânicos ou outros, de conduta sexualmente explícita”.

No Brasil, o Estatuto da Criança e do Adolescente tipifica como crime “produzir, participar e agenciar a produção de pornografia infantil (art. 240); vender, expor à venda (art. 241), trocar, disponibilizar ou transmitir pornografia infantil, assim como assegurar os meios ou serviços para tanto (art. 241-A); adquirir, possuir ou armazenar, em qualquer meio, a pornografia infantil (art. 241-B); simular a participação de crianças e adolescentes em produções pornográficas, por meio de montagens (art. 241-C). Além disso, a atividade de aliciar crianças, pela internet ou qualquer outro meio, com o objetivo de praticar atos sexuais com elas, ou para fazê-las se exibirem de forma pornográfica, também é crime, com pena de reclusão de um a três anos, e multa”.  
Um projeto de lei de autoria do senador Flávio Bolsonaro (PL-RJ) está em tramitação visando endurecer essas penas.
 
O crime do deepfake
Outra atividade ligada à inteligência artificial que está provocando reações de revolta é o chamado deepfake. 
Consiste em encaixar o rosto de uma pessoa (quase sempre o de uma mulher) no corpo de uma atriz de filme pornô em plena ação. 
O programa encaixa o rosto de uma mulher qualquer no de outra que esteja praticando sexo explícito. 
O mesmo princípio técnico que fez a falecida Elis Regina “cantar” com sua filha Maria Rita num recente comercial de automóveis.

A funcionária pública norte-americana Nina Jankowicz, que exercia um cargo numa das agências de segurança do governo Joe Biden, escreveu sobre esse drama para a revista The Atlantic. 
Ela ficou sabendo que seu rosto havia sido “encaixado” por alguém no corpo de uma estrela de filmes pornô. 
Sem conhecer o autor do vídeo, não havia muito o que fazer.

No seu artigo, Jankowicz foi honesta o suficiente para não cair no vitimismo político. 
Ela sabe que qualquer mulher famosa pode ser apanhada num deepfake. Cita filmes que usaram os rostos de Hillary Clinton e da ativista Greta Thunberg, além da cantora Taylor Swift e da atriz Emma Watson. Entre outras vítimas da falsificação estavam políticas do Partido Democrata (Kamala Harris e Nancy Pelosi) e do Partido Republicano (Nikki Haley e Elise Stefanik).

O resultado do deepfake geralmente é meio grosseiro. O tom da pele do corpo nem sempre é o mesmo do rosto, as expressões são forçadas e mudam repentinamente. 
De maneira geral, fica claro que aquilo é uma falsificação. 
Mas isso não diminui a violência moral e a covardia de quem o produz.Exemplo de uso de deepfake em rosto humano | Foto: Shutterstock

Produzir ou ser apanhado com material sexualizando crianças é crime pesado. 
Idem a produção, o tráfico e a divulgação de vídeos deepfake. 
Mas quem acha que vai reprimir esse fluxo está dizendo que pode enxugar gelo com uma flanela.

Não existe maneira de eliminar essas atividades criminosas ligadas à inteligência artificial,
provavelmente nem em países extremamente controlados, como a Coreia do Norte ou o Irã. Esse material nasce em computadores anônimos e encontra seus caminhos para chegar aos interessados. Faz parte do lado sombrio da natureza humana.
 
Freud e o pântano pornográfico
Os que acham que combatendo a inteligência artificial vão acabar com imagens de pedofilia ou deepfakes estão querendo desinventar o automóvel para evitar acidentes de trânsito. Voltar no tempo não tem lógica, não tem sentido, é um ato obscurantista e reacionário.

Os mesmos programas que criam imagens de crianças sexualizadas produzem excelentes livros infantis, histórias e fantasias visuais cheias de imaginação, ainda que artificial. Esses aplicativos estão democratizando a capacidade de produzir cultura. Apenas uma pequena minoria chafurda nesse pântano pornográfico. Mas existem questões mais amplas e sutis para reflexão.
 
 
(...)
 
 
 

sábado, 16 de março de 2019

PF tem tecnologia para identificar usuários da ‘dark web’

Núcleo de investigações cibernéticas do Ministério Público paulista apura se atiradores de Suzano mantiveram contatos em fóruns hospedados em espaço virtual com acesso restrito

A Polícia Federal desenvolveu nos últimos anos uma metodologia de investigação para identificar os usuários da dark web, parte da internet cujo acesso é possível apenas com tecnologia que esconde a identificação do usuário. A utilização da dark web pelo dois atiradores para planejar o massacre na Escola Estadual Raul Brasil, em Suzano, na Grande São Paulo, que terminou com dez mortos e 11 feridos, na quarta-feira, 13, é uma das linhas de investigação do Ministério Público de São Paulo.


Tela do site extremista Dogolachan. FOTO: REPRODUÇÃO

O núcleo de investigações cibernéticas do MP paulista vai apurar se Luiz Henrique de Castro, de 25 anos, e o adolescente G.T.M., de 17 anos, responsáveis pelo ataque, mantiveram contatos em fóruns da dark web com pessoas que contribuíram no planejamento do crime ou no fornecimento das armas. A ação dos dois foi comemorada em um fórum localizado nessa parte da internet, que conta com um sistema de acesso específico que busca dificultar a identificação e os rastros dos seus usuários por meio de ferramentas como criptografia e embaralhamento de IPs, espécie de “CEP” do usuário na rede.

O Estado falou com investigadores e peritos com experiência nesse tipo de investigação que confirmaram se tratar de um tipo de apuração muito complexa. Segundo eles, não há anonimato na rede e é possível encontrar e identificar os criminosos que se escondem na dark web. A pricipal dificuldade nesses casos, segundo relato de peritos criminais ao Estado, é mapear a “infraestrutura” envolvida na hospedagem e armazenamento dos dados. Como o IP, responsável por identificar quem é o usuário da rede, fica sobreposto por várias camadas de “protocolos”, é necessário um trabalho exaustivo para identificar os servidores em que as informações se encontram. Após o mapeamento, é necessário conseguir autorização para acioná-los. De posse da autorização judicial, começa, diz um investigador, a apuração tradicional.

Com a ajuda de ferramentas desenvolvidas pela própria PF, como o Iped, esses dados, normalmente em grandes quantidades, são espelhados e se dá início ao trabalho de análise.

Histórico
Em 2014, pela primeira vez na América Latina, a PF conseguiu mapear usuários da dark web que se valiam do anonimato para disseminar pornografia infantil. A operação batizada de Darknet resultou na prisão de 55 pessoas em 18 estados e no Distrito Federal. Além disso, os investigadores brasileiros conseguiram avisar outros cinco países – Portugal, Itália, Colômbia, México e Venezuela – sobre o envolvimento de seus cidadãos no esquema.

“Apesar da triste realidade de encontrarmos tantos abusadores, também é uma conquista para a sociedade a possibilidade de podermos investigar esses crimes”, disse à época a delegada Diana Calazans Mann. “Poucas polícias no mundo obtiveram êxito em investigações na dark web, como o FBI, a Scotland Yard e a Polícia Federal Australiana”, disse a PF em nota divulgada em novembro de 2016, após a segunda fase da operação.

MATÉRIA COMPLETA em O Estado de S. Paulo




 

‘Esconderijos’ da internet desafiam investigação sobre crimes de ódio

Sob anonimato, integrantes de redes ocultas coordenam assédios virtuais e têm minorias como alvo preferencial. Mesmo com toda dificuldade, número de ações na Justiça acompanhadas pelo Ministério Público Federal cresceram 29% entre 2017 e o ano passado

 O massacre na Escola Estadual Raul Brasil, em Suzano, na Grande São Paulo, expõe o avanço de grupos e crimes cibernéticos de propagação de ódio. A participação de uma dessas redes no atentado, que deixou 10 mortos e 11 feridos na quarta-feira, é investigada pelo Ministério Público Estadual (MPE). Ataques virtuais contra negros e mulheres e a incitação de crimes contra a vida são planejados e apoiados em fóruns na internet profunda que celebraram o massacre em Suzano. 
 Entre 2017 e o ano passado, houve aumento de 29% no número de ações na Justiça acompanhadas pelo Ministério Público Federal (MPF) relacionadas a crimes de ódio na internet – os registros passaram de 342 em 2017 para 442 no ano passado. “Tem havido uma intolerância maior e a sensação de que a internet é terra sem lei”, diz a procuradora Fernanda Domingos, do Grupo de Apoio sobre Criminalidade Cibernética do MPF. 

O dado se refere a discriminações na internet por raça, etnia, religião e procedência, como ataques a nordestinos, por exemplo. E o aumento de processos em 2018, segundo o MPF, pode ter relação com o ano eleitoral, época considerada propícia para a propagação de discursos de ódio na web.  Para identificar os agressores virtuais, o MPF apura não só o que acontece na internet superficial, onde estão as redes sociais, por exemplo, como o que ocorre na chamada dark web, a internet com forma de acesso específica para dificultar a identificação de seus usuários. O olhar para as profundezas da internet tem um motivo. “Os criminosos estão se refugiando lá porque é um meio onde o anonimato é mais fácil. Tem havido uma migração para essas redes”, afirma Fernanda. 

Um dos fóruns que comemoraram o ataque em Suzano, por exemplo, migrou em 2018 da internet exposta, em que as páginas podem ser buscadas pelo Google, para a dark web. O MPE apura se usuários desse “chan”, como são chamados os fóruns na dark web, incitaram o atentado. Os “chans” agregam pessoas com interesses comuns que se valem do suposto anonimato garantido pela rede. Uma enciclopédia na dark web enumera os grupos que existem e suas finalidades. Grande parte do compartilhamento de material de pornografia infantil ocorre nesses espaços. 
“São grupos que se validam mutuamente, compartilham valores que ferem direitos humanos e produzem conteúdos criminosos”, diz Juliana Cunha, diretora da ONG SaferNet Brasil. 

No fórum que comemorou o ataque em Suzano, os membros, em geral, são homens jovens. “São recrutados aqueles com dificuldades de inserção social. Os relatos envolvem o fracasso em se relacionar com mulheres, de ter papel social”, diz Juliana. Juntos, promovem ataques virtuais misóginos ou direcionados a outras minorias. “Eles se coordenam e elegem alvos, invadem e obtém informações pessoais, enviam ameaças e chantagens.” A violência pode culminar em atos com mortes, que ganham aplausos dos membros e colocam o grupo em destaque diante de outros na dark web. “É para dizer ‘existo e posso causar um grande estrago’”.  

Até chegar às profundezas da internet é comum, porém, que o envolvimento com atos criminosos tenha começado em redes sociais já conhecidas. “Outros usuários indicam ferramentas e conteúdos e a pessoa vai migrando para ambientes mais restritos. É natural que comecem a acobertar (o crime) e busquem lugares mais seguros”, diz Luiz Walmocyr Jr., especialista em crimes cibernéticos. A operação Darknet da Polícia Federal desbaratou em 2014, pela primeira vez na América Latina, a propagação de pornografia infantil na dark web.  

Entraves
Mas o monitoramento dos grupos é complexo e esbarra em dificuldades até diplomáticas. É comum que os fóruns estejam hospedados em países com os quais o Brasil não têm cooperação. Outra dificuldade é técnica. Peritos e investigadores da PF ouvidos pelo Estado explicam que, nesses ambientes, o IP – “CEP” do usuário na rede – fica coberto por várias camadas de “protocolos”, o que exige trabalho exaustivo para identificar os servidores onde estão as informações. Após o mapeamento, é preciso autorização para acioná-los. Só com o aval judicial é que começa, de fato, a apuração tradicional.