Inteligência artificial e eleições  Salvar a democracia

Que informação é verdadeira, qual é gerada artificialmente? Identificar a diferença está se tornando cada vez mais difícil à medida que a desinformação e as notícias falsas geradas pela inteligência artificial estão se espalhando.
Que informação é verdadeira, qual é gerada artificialmente? Identificar a diferença está se tornando cada vez mais difícil à medida que a desinformação e as notícias falsas geradas pela inteligência artificial estão se espalhando. Foto (detalhe): © Adobe

Áudios falsos imitando vozes de políticos, chamadas robóticas geradas por IA ou âncoras de TV fictícios: a inteligência artificial oferece, em grande magnitude, novas maneiras de espalhar desinformação. Em uma era de crises globais, isso representa uma ameaça genuína à democracia.

Os defensores da democracia têm uma enorme tarefa pela frente em 2024: salvá-la. Em meio a uma onda sem precedentes de eleições em todo o mundo, enfrentamos ameaças crescentes ao sistema que os estadunidenses chamam de “governo do povo, pelo povo e para o povo”.

Ao mesmo tempo em que cerca de 40 nações vão às urnas em 2024, devemos lidar também com algo que pode ampliar os desafios anteriores que a era digital já impunha à construção de uma base de participação democrática, ou seja, informações em que possamos confiar. Esse novo desenvolvimento é a inteligência artificial generativa, comumente chamada de “IA”. É uma abreviação que contém uma infinidade de significados, possibilidades e perigos.

Quando os Estados Unidos forem às urnas, no segundo semestre, a maioria das outras nações já terá passado por seus pleitos. Então saberemos melhor se a IA generativa, que saltou aos olhos do público há apenas um ano com o lançamento do ChatGPT, é mais uma bênção ou uma ameaça (ou, possivelmente, nenhuma das duas coisas).

Os primeiros sinais não são auspiciosos, para dizer o mínimo. Vários exemplos recentes: em Bangladesh, de acordo com o Financial Times, a mídia pró-governo, juntamente com influenciadores sociais, “promoveu desinformação gerada por IA, que foi propagada através do uso de ferramentas baratas oferecidas por startups de inteligência artificial”. Nas eleições recém-concluídas na Eslováquia, de acordo com uma reportagem da revista Wired, áudios falsos, que supostamente traziam a voz de um candidato, foram usados para ajudar a derrotá-lo. Nos EUA, a Associated Press relata que os candidatos já estão começando a usar as “robo-calling” (“chamadas robóticas”, que consistem em sistemas automatizados de voz discada) para gerar interesse em candidatos políticos.

Esses casos, embora preocupantes, ainda parecem desconectados uns dos outros. E, até o momento, eles não parecem ser centrais para o que é claramente uma campanha organizada, arquitetada para desestabilizar as democracias liberais em todo o mundo. No entanto, esses exemplos são certamente tratados como fontes de dados por pessoas que usam rotineiramente a desinformação como parte de seu arsenal de persuasão e que estão ansiosamente atentas às  possibilidades trazidas por novas ferramentas, que elas certamente utilizarão em larga escala se puderem.

A IA ajuda forças antidemocráticas

O boom mais amplo da IA surge em meio a crises globais crescentes e existenciais. As guerras e as alterações climáticas já estão alimentando a migração em massa e a agitação econômica. Essas crises, e outras, contribuíram para a angústia pública generalizada e, não por acaso, para a ascensão de populistas de direita, alguns dos quais são fascistas declarados e veem a democracia com desprezo. A IA é uma peça-chave na evolução implacável, rápida e interconectada do nosso ecossistema de informação. Junto com outras poderosas ferramentas de comunicação, a IA ajuda propagandistas mal-intencionados que apoiam as forças antidemocráticas. Apesar dos melhores esforços de pessoas e instituições que buscam ajudar o público a separar a realidade das mentiras, as frentes da desinformação estão ganhando força.

É fundamental lembrar que a IA generativa ainda se encontra em um estágio inicial de desenvolvimento. Não é uma farsa, embora seu impacto imediato e seu potencial possam ter sido exagerados por seus promotores e jornalistas. Ela é, no mínimo, uma ferramenta fascinante e potencialmente poderosa. Pode ser, em última análise, uma revolução.

Seu impacto inicial mais profundo na política pode ser a forma como ela amplia outras tecnologias digitais que já têm influência sobre o processo eleitoral. Os responsáveis pelas campanhas eleitorais já sabem como usar o microtargeting para atingir pequenos grupos de eleitores. Em breve, os eleitores receberão individualmente em grande escala mensagens personalizadas especificamente para eles. Os bots (robôs digitais) agora inundam as plataformas de mídia social com contas falsas que promovem mentiras, muitas vezes com a intenção de suprimir a participação eleitoral, mas esses têm sido instrumentos limitadamente contundentes até o momento. Em breve, as forças mal-intencionadas irão turbinar os bots com persuasão gerada por IA, cujas capacidades altamente elaboradas serão capazes de atingir individualmente os eleitores de forma muito mais precisa.

Apesar dos melhores esforços de pessoas e instituições que buscam ajudar o público a separar a realidade das mentiras, as frentes da desinformação estão ganhando força.

Âncoras fictícios de telejornais não aparecerão nas principais redes de TV, mas clipes deles – e imitações geradas por IA a partir de imagens de jornalistas reais – circularão amplamente pelas redes sociais. Algumas das plataformas estão tentando se opor a essa onda, mas, por definição, é impossível moderar tudo o que acontece em sites gigantes de mídia social.

Precisamos reconhecer também que, mesmo que alguém removesse magicamente da visualização pública toda a desinformação aprimorada por IA, isso não resolveria o problema maior. Os jornalistas adoram atacar as redes sociais por hospedarem discursos potencialmente danosos, mas os principais meios de comunicação, tanto nos EUA quanto em outros países, vêm injetando desinformação na esfera cívica há décadas. Os estadunidenses provavelmente absorvem mais desinformação via família Murdoch, da Fox News, do que a partir de todas as “trolagens” online reunidas. Em todo o mundo, poderosos interesses corporativos, muitas vezes alinhados ou ligados a governos, estão rotineiramente envolvidos em campanhas de propaganda. Se não podemos impedir que os gigantes corporativos envenenem a esfera pública, é difícil imaginar correções abrangentes na desinformação online impulsionada pela IA. 

De qualquer forma, devemos tentar. As opções incluem regulamentação, censura total, contramedidas e educação pública.  

Detecção, regulação e letramento midiático

O Centro Brennan de Justiça, uma organização sediada nos EUA que tem trabalhado por eleições livres e justas, está entre os muitos defensores de uma regulamentação rigorosa. Em dezembro de 2023, o centro publicou um relatório de pesquisa – Regulamentando deepfakes gerados por IA e mídia sintética na arena política – que apresenta a lógica e exemplos de maneiras através das quais a regulamentação poderia ajudar a proteger o processo eleitoral. O relatório esforça-se em equilibrar interesses concorrentes, mas não concilia, em última análise, o valor primordial da liberdade de expressão em sociedades democráticas, em que a noção de regulamentar a mentira se soma à regulamentação do discurso que deveria permanecer inquestionavelmente legal, mesmo que o detestemos. A regulamentação pode até ser possível, mas vai impor uma série de problemas.

Enquanto isso, podemos adotar contramedidas melhores. Precisamos de melhores ferramentas para identificar mídias sintéticas e suas motivações, para desmascarar falsificações e, por vezes, para confirmar a autenticidade de determinadas publicações. Os serviços de software que afirmam identificar textos gerados por IA – para, por exemplo, detectar plágio de estudantes – não são totalmente confiáveis, o que os torna perigosos. Humanos são essenciais em projetos de informação de código aberto, como o da iniciativa europeia Bellingcat.com. Misturar inteligência humana à da máquina parece ser a base para viabilizar um nível satisfatório de detecção e resposta, ao menos em curto prazo.

A educação é o melhor e mais duradouro caminho de longo prazo.

Outra contramedida em desenvolvimento é a marcação de conteúdos digitais no momento de sua criação, e a garantia de que as tags viajem junto com o conteúdo à medida que ele é modificado e propagado. A Content Authentication Initiative (Iniciativa de Autenticação de Conteúdo), uma colaboração de interesses corporativos, acadêmicos e outros, está trabalhando no desenvolvimento de tecnologias capazes de fazer isso. Embora seja promissor, esse trabalho ainda se encontra em seu estágio inicial, mas, já nessa etapa, são abordados todos os tipos de questões complexas relacionadas ao controle de mídias.

A educação é o melhor e mais duradouro caminho de longo prazo. O treinamento em letramento midiático, mais comum na Europa do que nos EUA, oferece aos consumidores e criadores de mídia uma estrutura para o exercício do bom senso. O letramento midiático pode proteger contra um ataque de propaganda e mentiras habilmente elaboradas? Ainda não sabemos. Mas, se não tentarmos isso, com programas abrangentes e criados para pessoas de todas as idades, o resultado será nefasto.

Leia mais…

Failed to retrieve recommended articles. Please try again.