A OpenAI removeu contas associadas a operações de propaganda conhecidas na Rússia, China e Irã; Agência de Campanha Política Israelita; Um grupo até então desconhecido que apareceu na Rússia, os pesquisadores do instituto chamaram de “má gramática”. As equipes usam a tecnologia OpenAI para escrever postagens, traduzi-las para diferentes idiomas e desenvolver software para postar automaticamente nas redes sociais.
Nenhum desses grupos conseguiu ganhar muita força; Suas contas de mídia social associadas alcançaram alguns usuários Alguns seguidores, disse Ben Nimmo, analista principal do Grupo de Inteligência e Investigações da OpenAI. No entanto, o relatório da OpenAI mostra que os ativistas que atuam nas redes sociais há anos estão usando a tecnologia de IA para impulsionar as suas campanhas.
“Nós os vimos produzir texto com maior volume e menos erros do que essas operações tradicionalmente gerenciavam”, disse Nimmo, que anteriormente trabalhou em operações de meta-rastreamento de influenciadores, em um briefing com repórteres. Nimmo disse que outros grupos podem usar as ferramentas da OpenAI sem o conhecimento da empresa.
“Não é hora para complacência. “A história mostra que as atividades dos influenciadores que não levaram a lugar nenhum durante anos podem explodir repentinamente se ninguém estiver procurando por elas”, disse ele.
Há anos que governos, partidos políticos e grupos de activistas utilizam as redes sociais para influenciar a política. Após preocupações sobre a influência russa nas eleições presidenciais de 2016, as plataformas de redes sociais começaram a analisar mais de perto a forma como as suas plataformas estavam a ser utilizadas para influenciar os eleitores. As empresas geralmente impedem que governos e grupos políticos encobrem esforços concertados para influenciar os utilizadores e exigem que os anúncios políticos revelem quem pagou por eles.
Os investigadores da desinformação levantaram preocupações de que, à medida que as ferramentas de IA que podem gerar textos, imagens e vídeos realistas se tornam mais amplamente disponíveis, será mais difícil detetar e responder à desinformação ou às atividades de influência encoberta online. Milhões de pessoas estão votando nas eleições em todo o mundo este ano, e os deepfakes de IA já proliferaram.
OpenAI, Google e outras empresas de IA estão trabalhando em tecnologia para identificar deepfakes com suas próprias ferramentas, mas tal tecnologia ainda não foi comprovada. Alguns especialistas em IA acham que os detectores deepfake não são totalmente eficazes.
No início deste ano, um grupo afiliado ao Partido Comunista Chinês supostamente endossou o áudio gerado por IA de um candidato concorrendo nas eleições de Taiwan em detrimento de outro. No entanto, o político, Terry Coe, proprietário da Foxconn, não apoiou o outro político.
Em janeiro, os eleitores nas primárias de New Hampshire receberam uma chamada automática que supostamente era do presidente Biden, mas foi rapidamente identificada como IA. Na semana passada, um democrata que disse ter operado uma chamada automática foi indiciado sob a acusação de supressão de eleitores e falsificação de identidade de candidato.
O relatório da OpenAI detalhou como cinco grupos usaram a tecnologia da empresa nos seus esforços para influenciar as atividades. Spamouflage, um grupo anteriormente conhecido da China, usou a tecnologia da OpenAI para pesquisar atividades nas redes sociais e escrever postagens em chinês, coreano, japonês e inglês, disse a empresa. Um grupo iraniano chamado União Internacional de Mídia Virtual também usou a tecnologia da OpenAI para criar artigos publicados em seu site.
Um grupo até então desconhecido, Bad Grammar, usou a tecnologia OpenAI para criar um programa que pode postar automaticamente no aplicativo de mensagens Telegram. Bad Grammar então usou a tecnologia OpenAI para gerar postagens e Segundo o relatório, argumenta em russo e inglês que os EUA não deveriam apoiar a Ucrânia.
O relatório descobriu que uma empresa de campanha política israelense chamada Stoic usou a OpenAI para criar postagens pró-Israel sobre a guerra de Gaza e teve como alvo pessoas no Canadá, nos Estados Unidos e em Israel, disse a OpenAI. Na quarta-feira, o proprietário do Facebook, Meta, também elogiou o trabalho de Stoick, dizendo que ele derrubou 510 contas do Facebook e 32 contas do Instagram usadas pelo grupo. A empresa disse aos repórteres que algumas contas foram hackeadas, enquanto outras eram contas de pessoas fictícias.
Os relatos em questão costumam comentar páginas de indivíduos conhecidos ou meios de comunicação que mostram estudantes universitários americanos pró-Israel, afro-americanos e outros. Os comentários apoiaram os militares israelenses e alertaram os canadenses de que o “Islã radical” ameaçava os valores liberais ali, disse Meta.
A IA agiu de acordo com a redação de alguns comentários, que pareceram estranhos e fora de contexto aos usuários reais do Facebook. O desempenho foi fraco, disse a empresa, atraindo apenas cerca de 2.600 seguidores legítimos.
META opera após o Laboratório de Pesquisa Forense Digital do Atlantic Council foi descoberto Rede enquanto realiza atividades semelhantes identificadas por outros pesquisadores e publicações.
No ano passado, investigadores de desinformação sugeriram que os chatbots de IA poderiam ter conversas longas e detalhadas com pessoas específicas online, tentando influenciá-las numa determinada direção. As ferramentas de IA podem absorver grandes quantidades de dados sobre indivíduos e enviar mensagens diretamente a eles.
A OpenAI não identificou nenhuma aplicação de ponta de IA, disse Nimmo. “É mais uma evolução do que uma revolução”, disse ele. “Não há nada que diga que não veremos isso no futuro.”
Joseph Menn contribuiu para este relatório.