Eleições em destaque: IA generativa e falsificações graves

Eleições em destaque: IA generativa e falsificações graves

Check Point® Software Technologies Ltd. (NASDAQ: CHKP), uma fornecedora líder de soluções de cibersegurança global, alerta para uma temporada eleitoral tumultuada em vários países, principalmente nos Estados Unidos, em razão da facilidade de criação de vídeos e imagens deepfake de Inteligência Artificial (IA). Os pesquisadores da empresa examinaram o potencial impacto dos recentes avanços nas tecnologias de IA generativa para as próximas eleições democráticas.

Em particular, eles analisaram duas mudanças principais: a capacidade da IA para criar textos persuasivos e personalizados em larga escala e a sua proficiência em gerar conteúdos audiovisuais críveis a baixo custo. Anteriormente, a IA era usada principalmente em campanhas de influência para selecionar e combinar conteúdo específico com públicos-alvo. No entanto, a onda emergente de tecnologia está cada vez mais apta a criar conteúdos personalizados de forma autônoma, aumentando as preocupações sobre a sua influência no discurso público.

“Uma das implicações mais significativas da tecnologia emergente de IA é a sua capacidade de fabricar gravações enganosas de voz e vídeo de maneira direcionada e em escala. Já estamos vendo golpistas usarem ferramentas de IA gratuitas, e fáceis de usar, para induzir as vítimas a enviar-lhes dinheiro, fazendo-se passar por colegas e familiares. É essencial que a sociedade se reúna para determinar o papel da IA nas eleições, mas com isto devemos ser cautelosos para não reagir exageradamente a esta ameaça e impedir o envolvimento público nas discussões políticas”, avalia Sergey Shykevich, gerente do grupo de Inteligência de Ameaça da Check Point Research (CPR).

Segundo o especialista, muitos observadores estão preocupados com o risco de esses desenvolvimentos afastarem o discurso público dos debates factuais e ideológicos, minando potencialmente a própria essência das eleições democráticas.

IA e textos automatizados

À medida que se aproxima o próximo ciclo das eleições presidenciais dos Estados Unidos em 2024, há uma apreensão crescente de que os avanços na IA possam ser usados para introduzir novas perturbações no processo democrático. A tecnologia anterior era usada, principalmente, em campanhas de influência para selecionar e combinar conteúdo específico com públicos-alvo. Hoje, a onda emergente de tecnologia está cada vez mais apta a criar conteúdos personalizados de forma autônoma, aumentando as preocupações sobre a sua influência no discurso público.

O escândalo Cambridge Analytica que eclodiu em 2018 foi sobre o uso não autorizado de informações de usuários de redes sociais. Essas informações foram utilizadas para construir perfis de eleitores e fornecer conteúdo alinhado com as visões de mundo dos alvos, tornando-os ferramentas de persuasão mais eficazes. O gargalo nestas operações de influência era o custo do desenvolvimento de conteúdos, que exigia criadores de conteúdos humanos proficientes na língua, cultura, política e psicologia do país alvo. No entanto, a nova tecnologia de IA contorna esse gargalo, oferecendo conteúdo personalizado com boa relação custo-benefício.

Desde o lançamento do ChatGPT no final de 2022, tornou-se fácil gerar texto personalizado automaticamente. Atualmente, é possível definir parâmetros específicos de conversa, como idade, sexo e localização geográfica, com objetivos que são alimentados automaticamente na API. Isto produz um texto personalizado impressionante e convincente que visa atingir o objetivo predefinido. A saída pode ser usada para gerar conversas completas entre a IA e o indivíduo alvo. Chatbots semelhantes já estão em uso comercial, por exemplo, como ferramentas eficientes de atendimento ao cliente.

De acordo com os especialistas da Check Point Software, o verdadeiro avanço reside na capacidade de produzir este conteúdo personalizado em grande escala e com baixo custo. A qualidade do texto melhorou a tal ponto que o historiador Prof. Yuval Noah Harari chama isso de "hackear humanos", referindo-se à capacidade da IA de antecipar e manipular nossos sentimentos, pensamentos e escolhas além de nossa própria autocompreensão.

No contexto das eleições, os pesquisadores propuseram uma experiência mental em que os sistemas de IA, a que chamam "Clogger e Dogger", operam em ambos os lados do mapa político para maximizar a utilização de técnicas de micro direção e de manipulação de comportamento. Alertam que, como resultado, o discurso político futuro poderá perder o seu significado. O discurso entre os bots e os eleitores individuais pode já não se concentrar em questões políticas relevantes. Em vez disso, pode ser usado para desviar a atenção da mensagem de um oponente ou de outros tópicos importantes de discussão.

Além disso, é importante observar que os atuais sistemas de IA não são necessariamente precisos, mas irão gerar conteúdo que corresponda aos objetivos que lhe foram atribuídos. Em tal cenário, os vencedores de uma eleição teriam prevalecido não devido à sua posição política ou mensagem transmitida aos eleitores, mas devido à sua capacidade financeira para alavancar este sistema superior para o sucesso.

IA e objetos audiovisuais fabricados

Uma das implicações mais significativas da tecnologia emergente de IA é a sua capacidade de fabricar gravações enganosas de voz e vídeo. Este avanço ameaça confundir os limites entre relatos de acontecimentos genuínos e falsificados.

Com essas ferramentas se tornando cada vez mais acessíveis, há uma preocupação crescente de que a distinção entre relatórios autênticos e falsificações profundas produzidas se torne quase impossível, especialmente na arena política.

Embora inicialmente usada para golpes como personificar indivíduos para obter ganhos financeiros, essa tecnologia já foi politicamente transformada em arma. Por exemplo, durante as recentes eleições municipais de Chicago, nos Estados Unidos, surgiu um clip de áudio adulterado, alegadamente do candidato Paul Vallas, apoiando a agressão policial. Outras invenções semelhantes, alegando ser Elizabeth Warren ou o presidente da Ucrânia, Volodymyr Zelensky, também foram encontradas online. Um vídeo criado por IA do Comitê Nacional Republicano dos Estados Unidos, retratando cenas distópicas fictícias sob o governo de Joe Biden, levanta questões sobre sua novidade: como é diferente das invenções anteriores de Hollywood e sua utilização para campanhas políticas. A verdadeira mudança, no entanto, é a acessibilidade e disponibilidade destas ferramentas tecnológicas, aumentando as preocupações sobre a sua utilização indevida na política.

Enfrentando o desafio imediato da IA

Vale a pena ressaltar que, ao contrário dos desafios tecnológicos anteriores para os quais a solução era de base tecnológica, estes novos desenvolvimentos desafiam algo mais fundamental: a nossa relação com a própria verdade. “Estamos agora lidando com questões complexas que são mais filosóficas e morais do que tecnológicas. Questões epistemológicas relacionadas com a natureza do conhecimento, a confiabilidade das fontes de dados, a reputação das figuras públicas e a própria forma como moldamos a nossa compreensão da realidade. Estes desafios estão remodelando o panorama do discurso político, colocando em xeque a autenticidade da informação e exigindo uma nova perspectiva sobre os valores fundamentais da comunicação e da integridade no processo democrático”, avalia Sergey Shykevich.

De acordo com Shykevich, para enfrentar eficazmente estes desafios, é preciso uma cooperação de múltiplas partes interessadas. Em primeiro lugar, os fornecedores de IA devem tomar medidas proativas para evitar o abuso dos seus processos, e os reguladores precisam reavaliar e atualizar as diretrizes.

Ele aponta que a condição primária para avaliar a informação é compreender o contexto em que ela aparece. Isto envolve compreender a fonte da informação, a identidade e as motivações do orador. Portanto, algumas propostas enfatizam a necessidade de revelar esses detalhes com a publicação. Quando se trata de conversas com bots, há uma demanda para declarar a identidade do palestrante como um chatbot de IA.

Yuval Harari levanta também uma questão relacionada com a aprovação da participação da IA no discurso político: a Primeira Emenda nos Estados Unidos garante a liberdade de expressão aos humanos. Este direito também está reservado à IA? No entanto, à medida que a integração da IA nos processos de pensamento se torna mais complicada, torna-se cada vez mais desafiante distinguir as origens de um texto ou de uma ideia. A aplicação da regulamentação é crítica, uma vez que se revelou ineficaz confiar na capacidade de um indivíduo para reconhecer a confiabilidade da fonte.

“Assim, é essencial manter as coisas em perspectiva e lembrar que sempre lidamos com informações incompletas sobre a realidade e que manipulações, reviravoltas retóricas e mentiras não se originaram na era da IA. Retratos editados existiam mesmo durante o tempo de Abraham Lincoln, e é altamente provável que a percepção dos acontecimentos atuais de um leitor de notícias de 2023 não seja pior que em tempos anteriores, quando as “notícias” raramente eram atualizadas e a verificação dos fatos era muito mais desafiante. Uma análise dos casos reais de utilização indevida da IA sugere que estamos ainda muito longe de influenciar enormemente a nossa percepção da realidade e do discurso político”, aponta Shykevich.

Share This Post

Post Comment