O estado espera que novas leis parem o uso da tecnologia deepfake para manipular discurso político e conteúdo sexual.

Por  

Resultado de imagem para Califórnia assume deepfakes em pornografia e política

O estado da Califórnia assinou um conjunto de leis para reprimir o uso de tecnologias deepfake no discurso político e no conteúdo pornográfico. 

O termo ‘deepfake’ é relativamente novo, mas, apesar do estágio inicial, ganhou a atenção dos legisladores. Deepfaking é o uso de tecnologia, incluindo algoritmos de aprendizado de máquina, ou o que atualmente classificamos como inteligência artificial (AI) para inserir conteúdo falso em vídeos ou manipular áudio, incluindo padrões de voz.

Às vezes, os deepfakes são usados ​​apenas para sátira, como zombar de funcionários do governo e do cenário político atual. 

No entanto, o conteúdo manipulado pela AII pode ter uma reviravolta quando usado para gerar propaganda política capaz de enganar o público em geral. 

A pornografia também se tornou uma área emergente para o uso do deepfaking. Um estudo recente sobre a prática constatou que as mulheres constituem a maioria das vítimas do pornô deepfake, também conhecido como “pornô involuntário”. 

Nesses casos, seus rostos são inseridos no conteúdo pornográfico existente, cujas conseqüências podem ser semelhantes no mundo real à vingança da pornografia – uma vítima humilhada e impactada na família, amigos e locais de trabalho. 

Conforme relatado anteriormente pelo ZDNet , o relatório do Deeptrace diz que as redes adversárias generativas (GANs) estão sendo usadas para gerar deepfakes e o número de vídeos deepfake gravados aumentou de 8.000 em dezembro de 2018 para mais de 14.600 no momento em que este artigo foi escrito. No total, 96% de todos os vídeos deepfake são de natureza pornográfica. 

O governador da Califórnia, Gavin Newsom, assinou duas leis, projetos de lei 730 e 602, em preparação para a batalha contra os deepfakes e as possíveis consequências políticas da violação de conteúdo em futuras eleições. 

O primeiro projeto de lei, o AB730 , propõe a proibição da produção e distribuição de material político deepfake “malicioso” ou “materialmente enganoso”, incluindo a sobreposição de imagens em material de campanha como áudio e vídeo até pelo menos 2023. 

“Este projeto proibiria […] uma pessoa, comitê ou outra entidade, dentro de 60 dias após a eleição em que um candidato a cargo eletivo aparecerá na cédula, de distribuir com malícia real meios de áudio ou visual materialmente enganosos de o candidato com a intenção de prejudicar a reputação do candidato ou induzir um eleitor a votar a favor ou contra o candidato, a menos que a mídia inclua uma divulgação informando que a mídia foi manipulada “, diz a lei. 

No entanto, são concedidos subsídios para a criação de material de deepfake quando há sátira ou paródia, e desde que fique claro que esse conteúdo foi manipulado por meio de divulgação pública.  

O segundo projeto de lei, o AB602 , tem como objetivo dar aos cidadãos o direito de revidar, caso se tornem vítimas da manipulação do deepfake, especialmente em casos de material sexualmente explícito.

Embora a legislação existente forneça uma rota legal para aqueles cujas fotos privadas foram compartilhadas sem consentimento, como para fins de pornografia de vingança, o projeto adiciona uma causa potencial de ação contra aqueles que “criam e divulgam intencionalmente material sexualmente explícito, se a pessoa souber ou razoavelmente deveria saber que o indivíduo representado não consentiu com sua criação ou divulgação “, bem como para aqueles que compartilham” material sexualmente explícito que a pessoa não criou “ou que consentiu. 

As ramificações do conteúdo do deepfake também não passaram despercebidas pelos fornecedores de tecnologia. 

O Facebook e a Microsoft anunciaram em setembro um novo projeto chamado Deepfake Detection Challenge, com recompensas e prêmios no valor de US $ 10 milhões para acadêmicos dispostos a lançar e desenvolver soluções para a detecção automática de vídeos deepfake. 

A fim de fornecer um conjunto de dados para os acadêmicos trabalharem, a gigante das redes sociais prometeu pagar aos atores o desenvolvimento de vídeo e áudio deepfake. 

O Google também está interessado em entrar em ação. No mesmo mês, a gigante da tecnologia lançou um banco de dados contendo 3.000 vídeos manipulados pela IA para acadêmicos, que também fizeram uso de atores pagos. 

O banco de dados foi contribuído para o benchmark FaceForensics, um padrão desenvolvido pela Universidade Técnica de Munique e pela Universidade Federico II de Nápoles, com a esperança de se tornar o benchmark aceito para a detecção de falhas profundas no futuro.

Fonte: ZDNET