Temor de uso de IA para interferir na eleição dos EUA cresce, e Microsoft alerta Rússia, China e Irã

Na quarta, a Microsoft divulgou um relatório apontando um crescimento das ações desses países.

É 5 de novembro, e você recebe uma mensagem de áudio no celular de Kamala Harris dizendo que a eleição foi remarcada para o dia seguinte. Ou talvez seja Donald Trump dizendo que houve um incidente e por isso as seções eleitorais mudaram de lugar. Então você entra na plataforma X, e uma série de vídeos de funcionários enchendo urnas de votos falsos está nos assuntos do momento.

O uso de inteligência artificial no atual ciclo eleitoral americano, que vinha sendo relativamente limitado até agora, pode ser a grande surpresa de novembro, alertam especialistas. O perigo vem não apenas de dentro dos EUA, mas também de fora, diante dos sinais já detectados de tentativa de interferência por Rússia, China e Irã.

Na quarta, a Microsoft divulgou um relatório apontando um crescimento das ações desses países com a proximidade do pleito.

“Atores russos continuam a integrar IA generativa em seus conteúdos, grupos iranianos intensificam seus preparativos para habilitar operações de ciberinfluência, enquanto atores chineses mudam o foco para vários candidatos de menor expressão e membros do Congresso. Atores russos, em particular, tentaram atacar a campanha Harris-Walz, atacando o caráter dos candidatos”, afirma a empresa.

“Com foco especial nas 48 horas antes e depois do dia da eleição, eleitores, instituições governamentais, candidatos e partidos devem permanecer vigilantes contra atividades enganosas e suspeitas online”, recomenda.

Na semana passada, um vídeo com um suposto ex-aluno de Tim Walz, vice na chapa de Kamala, acusa o democrata de comportamentos impróprios com os estudantes na época em que era professor. A gravação foi postada no X, rede do bilionário Elon Musk. Uma série de postagens repercutindo as acusações, feitas por perfis que apoiam Trump, foram feitas na sequência.

Segundo autoridades do governo Biden, a campanha contra Walz foi criada e amplificada por atores russos, e é consistente com a tática padrão já observada: viralizar vídeos encenados para a câmera.

“Vladimir Putin quer que Donald Trump vença porque sabe que Trump se curvará e lhe dará tudo o que ele quiser. Condenamos nos termos mais fortes qualquer esforço de atores estrangeiros para interferir nas eleições dos EUA”, disse à Folha Morgan Finkelstein, porta-voz de segurança nacional da campanha democrata.

Nesta semana, foi lançado um anúncio com uma série de celebridades -como Michael Douglas, Laura Dern, Orlando Bloom, Amy Schumer e Chris Rock- para alertar eleitores sobre o uso de IA para gerar desinformação sobre quando, onde e como votar. Ao final do vídeo, é revelado que a participação de vários dos atores, na verdade, foi gerada pela tecnologia.

Miles Taylor, um dos organizadores da campanha, afirma em artigo para a Time que um dos principais temores que ouviu de autoridades estaduais e locais nos EUA é o surgimento de supostas evidências de fraude eleitoral. A preocupação é que, diante do verniz de autenticidade dado pela IA, sejam necessárias semanas ou até meses para provar sua falsidade.

“Pior ainda, a relação entre os funcionários do governo e as empresas de redes sociais está mais fraturada do que nunca. Processos judiciais e controvérsias sobre censura online criaram um efeito inibidor, fazendo com que ambos os lados relutem em cooperar. O resultado é que as localidades têm menos recursos técnicos para depender em momentos de crise”, compara ele com o pleito de 2020.

Para se preparar, órgãos estaduais responsáveis por supervisionar a eleição estão tentando se preparar. O Arizona, por exemplo, um dos locais em que a disputa entre Kamala e Trump é mais acirrada, fez treinamentos nos últimos meses envolvendo problemas gerados por deepfakes de vídeo e voz.

Deepfakes de áudio preocupam mais do que de vídeo, diz MIT

É este último formato o que mais gera preocupação na pesquisadora Aruna Sankaranarayanan, integrante do grupo laboratório de pesquisa do MIT sobre inteligência artificial.

Após conduzir uma série de experimentos usando variações de textos, áudios e vídeos com desinformação envolvendo a política, o grupo observou que a capacidade de discernimento entre um conteúdo falso e verdadeiro cresce quanto mais complexa é a mídia.

“A tecnologia de deepfake, pelo menos no domínio visual, ainda não está no ponto em que uma pessoa comum pode simplesmente criar um deepfake de altíssima qualidade que alguém não consiga detectar”, afirma ela. Além disso, ela afirma que as ferramentas para fazer esse tipo de criação são trabalhosas -a pesquisadora levou mais de uma semana para produzir cada vídeo.

Já no caso de áudio, ela disse que conseguiu criá-los em minutos.

“Uma das grandes descobertas foi que, quando usamos dubladores de Trump e Biden, os áudios não são tão bons quanto o gerado sinteticamente. Isso é provavelmente muito mais perigoso. Já vivemos em uma época em que golpes por telefone são tão comuns. Portanto, acho que deepfakes de áudio me preocupam ainda mais do que os deepfakes de vídeo”, diz ela.

Até agora, o uso de IA na campanha presidencial vinha sendo relativamente tímido. O caso mais próximo do pior cenário possível, na visão de especialistas, foi um áudio simulando a voz de Joe Biden usado para desencorajar eleitores de votar nas primárias em New Hampshire, em janeiro.

Outros exemplos notórios da ferramenta com o intuito de enganar o público foram imagens fabricadas para simular um endosso de Taylor Swift a Trump e um anúncio falso em que a voz de Kamala foi manipulada para dizer que foi escolhida para substituir Biden por ser mulher e negra, compartilhado por Elon Musk em agosto.

Mas, fora esses casos de maior destaque, o uso da IA foi quase como uma ferramenta de paródia, fabricando imagens claramente falsas de Trump como um fisiculturista, ou rodeado por gatos e cachorros, ou ainda de Kamala com um look comunista.

“Não vimos nenhuma evidência de uso intensivo de IA para disseminar informações problemáticas pelas campanhas oficiais”, diz Jennifer Stromer-Galley, do Instituto para Democracia, Jornalismo e Cidadania da Universidade de Syracuse, que monitora anúncios políticos em redes sociais.

“O uso de IA para gerar desinformação está acontecendo, especialmente no Twitter, por pessoas comuns e microinfluenciadores para tentar promover uma mensagem ideológica”, completa.

FONTE: Portal Correio