A empresa de mídia social que foi pioneira em permitir que usuários verificassem os fatos das publicações uns dos outros está introduzindo uma nova abordagem: permitir que bots de inteligência artificial verifiquem as publicações dos usuários.
O X (ex-Twitter) de Elon Musk disse nesta semana que começará a permitir que desenvolvedores criem agentes de IA que possam fazer checagens no programa notas da comunidade.
Mas não se preocupe, afirmou Keith Coleman, vice-presidente de produto do X: Os humanos ainda estarão no comando. E alguns especialistas em desinformação dizem que a ideia não é tão fantástica quanto pode parecer —embora tenham algumas preocupações.
O X espera que a medida ajude a acelerar e expandir um programa que se tornou um modelo para a indústria de mídia social.
Iniciado como um projeto-piloto chamado Birdwatch no Twitter antes de Musk comprar a empresa em 2022, as notas da comunidade permitem que usuários voluntários proponham “notas” adicionando contexto ou correções a publicações populares na plataforma. Outros usuários então avaliam a utilidade e credibilidade das notas propostas. Se uma nota proposta receber avaliações positivas de usuários suficientes —particularmente daqueles que discordaram entre si em avaliações anteriores— ela se torna pública no X para todos verem, aparecendo logo abaixo da publicação nos feeds dos usuários.
Musk rapidamente se apegou à ideia como uma alternativa ao que ele via como o viés progressista das organizações profissionais de verificação de fatos. A ideia desde então foi copiada por outras redes sociais importantes, incluindo Facebook, YouTube e TikTok. Para executivos de tecnologia acostumados a serem criticados por políticos por permitirem a disseminação de mentiras sem controle ou por censurarem erroneamente verdades difíceis, a ideia de delegar a verificação de fatos aos seus usuários tinha um apelo óbvio.
O sistema tem suas virtudes e deficiências.
As notas que são mostradas no X geralmente consideradas úteis pelos usuários. E pesquisas descobriram que elas tendem a retardar a disseminação de publicações que recebem as notas. Mas elas dificilmente curaram o conhecido problema de desinformação do site.
Isso ocorre em parte porque análises do The Washington Post e outros descobriram que relativamente poucas notas atingem o alto padrão para aprovação. E muitas vezes, quando o fazem, a falsidade ofensiva já se espalhou por toda parte.
É aí que a IA poderia ser útil, afirmou Coleman.
Coleman disse ao The Washington Post que espera que permitir que desenvolvedores programem agentes de IA para propor notas resulte em notas escritas mais rapidamente e aplicadas a mais publicações em todo o site.
Isso pode parecer uma receita para o caos. Os modelos de IA são conhecidos por fabricar falsidades —uma característica problemática para um verificador de fatos. E o próprio modelo de IA do X, Grok, teve alguns erros bastante espetaculares.
Mas o Grok não estará escrevendo notas da comunidade, pelo menos por enquanto. Em vez disso, desenvolvedores humanos, incluindo pesquisadores de universidades, registrarão seus próprios bots de IA específicos para o programa.
Eles primeiro terão que passar por alguns testes para ganhar elegibilidade. Uma vez que o façam, as notas que propuserem enfrentarão o mesmo processo rigoroso de aprovação que as notas escritas por humanos antes que possam ser mostradas no site. Elas também serão rotuladas como geradas por IA. Como os colaboradores humanos do programa, os bots de IA receberão pontuações de credibilidade com base em como suas notas são avaliadas.
“Muito importante, as IAs não avaliam notas”, afirmou Coleman.
Manter os humanos no comando do processo de avaliação é crucial, acrescentou, porque os grandes modelos de linguagem “cometem erros, alucinam coisas, podem ser tendenciosos. Todos estão cientes desses problemas”.
Ainda assim, Coleman acredita que um bot de IA bem projetado tem o potencial de aplicar fatos estabelecidos a pelo menos algumas categorias de publicações obviamente falsas ou enganosas mais rapidamente do que qualquer verificador de fatos humano poderia.
“Eles são bons em revisar muito conteúdo, vasculhar a web, procurar recursos”, afirmou. “É muito plausível que eles possam ser bons em dizer: ‘Ei, este vídeo existe desde 2013’ ou ‘Houve 10 mil notas mostradas sobre esta [afirmação] no passado'”.
O X fez parceria com pesquisadores do MIT, da Universidade de Washington, Harvard e Stanford em um artigo acadêmico preliminar explicando como o sistema poderia funcionar. O artigo também identifica vários “riscos e desafios”, incluindo o potencial de bots de IA escreverem “notas persuasivas, mas imprecisas” ou sobrecarregarem os avaliadores humanos.
Alguns especialistas dizem que a ideia tem potencial, mas temem que possa dar errado.
“Isso é potencialmente interessante se eles conseguirem encontrar uma maneira de evitar inundações de spam”, disse Renee DiResta, professora da Escola de Políticas Públicas McCourt da Universidade de Georgetown, em uma publicação no Threads.
Ela apontou para pesquisas que descobriram que modelos de IA especialmente treinados se destacam na produção de linguagem neutra em questões controversas, o que pode ajudar pessoas de diferentes ideologias a encontrar um terreno comum. Essa linguagem neutra é fundamental para que as notas da comunidade obtenham aprovação.
Alexios Mantzarlis, diretor da Iniciativa de Segurança, Confiança e Proteção da Cornell Tech, disse que a IA poderia ajudar com um dos maiores desafios das notas da comunidade: aplicá-las a todas as variantes de uma determinada afirmação falsa que esteja circulando em um determinado momento.
Ele observou que o colaborador mais prolífico da notas da comunidade já usa automação para enviar notas sinalizando golpes de criptomoedas, como Mantzarlis relatou para o Indicator no mês passado. Esse colaborador, uma empresa de antivírus, enviou 52 mil notas, com mais de 1.400 classificadas como “úteis” e mostradas publicamente no X.
Ainda assim, Mantzarlis apontou que acredita que a introdução da IA é um mau sinal para o projeto a longo prazo.
Um problema, em suas palavras: “Quem vai avaliar todas essas notas?” Usar bots de IA para propor notas pode não acelerar muito as coisas se o X estiver contando com o mesmo número de voluntários humanos para aprová-las.
É por isso que ele acredita que o X eventualmente recorrerá à IA para avaliar notas também. E se isso acontecer, disse Mantzarlis, um sistema destinado a democratizar o processo de verificação de fatos poderia se transformar em um ciclo de feedback de IA.
“Isso é contrário à missão e propósito originais do projeto, que era trazer humanos reais, usuários comuns para este espaço de moderação”, alertou.