O estado espera que novas leis parem o uso da tecnologia deepfake para manipular discurso político e conteúdo sexual.
Por Charlie Osborne
O estado da Califórnia assinou um conjunto de leis para reprimir o uso de tecnologias deepfake no discurso político e no conteúdo pornográfico.
O termo ‘deepfake’ é relativamente novo, mas, apesar do estágio inicial, ganhou a atenção dos legisladores. Deepfaking é o uso de tecnologia, incluindo algoritmos de aprendizado de máquina, ou o que atualmente classificamos como inteligência artificial (AI) para inserir conteúdo falso em vídeos ou manipular áudio, incluindo padrões de voz.
Às vezes, os deepfakes são usados apenas para sátira, como zombar de funcionários do governo e do cenário político atual.
No entanto, o conteúdo manipulado pela AII pode ter uma reviravolta quando usado para gerar propaganda política capaz de enganar o público em geral.
A pornografia também se tornou uma área emergente para o uso do deepfaking. Um estudo recente sobre a prática constatou que as mulheres constituem a maioria das vítimas do pornô deepfake, também conhecido como “pornô involuntário”.
Nesses casos, seus rostos são inseridos no conteúdo pornográfico existente, cujas conseqüências podem ser semelhantes no mundo real à vingança da pornografia – uma vítima humilhada e impactada na família, amigos e locais de trabalho.
Conforme relatado anteriormente pelo ZDNet , o relatório do Deeptrace diz que as redes adversárias generativas (GANs) estão sendo usadas para gerar deepfakes e o número de vídeos deepfake gravados aumentou de 8.000 em dezembro de 2018 para mais de 14.600 no momento em que este artigo foi escrito. No total, 96% de todos os vídeos deepfake são de natureza pornográfica.
O governador da Califórnia, Gavin Newsom, assinou duas leis, projetos de lei 730 e 602, em preparação para a batalha contra os deepfakes e as possíveis consequências políticas da violação de conteúdo em futuras eleições.
O primeiro projeto de lei, o AB730 , propõe a proibição da produção e distribuição de material político deepfake “malicioso” ou “materialmente enganoso”, incluindo a sobreposição de imagens em material de campanha como áudio e vídeo até pelo menos 2023.
“Este projeto proibiria […] uma pessoa, comitê ou outra entidade, dentro de 60 dias após a eleição em que um candidato a cargo eletivo aparecerá na cédula, de distribuir com malícia real meios de áudio ou visual materialmente enganosos de o candidato com a intenção de prejudicar a reputação do candidato ou induzir um eleitor a votar a favor ou contra o candidato, a menos que a mídia inclua uma divulgação informando que a mídia foi manipulada “, diz a lei.
No entanto, são concedidos subsídios para a criação de material de deepfake quando há sátira ou paródia, e desde que fique claro que esse conteúdo foi manipulado por meio de divulgação pública.
O segundo projeto de lei, o AB602 , tem como objetivo dar aos cidadãos o direito de revidar, caso se tornem vítimas da manipulação do deepfake, especialmente em casos de material sexualmente explícito.
Embora a legislação existente forneça uma rota legal para aqueles cujas fotos privadas foram compartilhadas sem consentimento, como para fins de pornografia de vingança, o projeto adiciona uma causa potencial de ação contra aqueles que “criam e divulgam intencionalmente material sexualmente explícito, se a pessoa souber ou razoavelmente deveria saber que o indivíduo representado não consentiu com sua criação ou divulgação “, bem como para aqueles que compartilham” material sexualmente explícito que a pessoa não criou “ou que consentiu.
As ramificações do conteúdo do deepfake também não passaram despercebidas pelos fornecedores de tecnologia.
O Facebook e a Microsoft anunciaram em setembro um novo projeto chamado Deepfake Detection Challenge, com recompensas e prêmios no valor de US $ 10 milhões para acadêmicos dispostos a lançar e desenvolver soluções para a detecção automática de vídeos deepfake.
A fim de fornecer um conjunto de dados para os acadêmicos trabalharem, a gigante das redes sociais prometeu pagar aos atores o desenvolvimento de vídeo e áudio deepfake.
O Google também está interessado em entrar em ação. No mesmo mês, a gigante da tecnologia lançou um banco de dados contendo 3.000 vídeos manipulados pela IA para acadêmicos, que também fizeram uso de atores pagos.
O banco de dados foi contribuído para o benchmark FaceForensics, um padrão desenvolvido pela Universidade Técnica de Munique e pela Universidade Federico II de Nápoles, com a esperança de se tornar o benchmark aceito para a detecção de falhas profundas no futuro.
Fonte: ZDNET