A desinformação, especialmente em contextos eleitorais, continua sendo uma preocupação global crescente. De acordo com um relatório publicado no The Conversation Brasil, 73% dos americanos relatam ter se deparado com notícias falsas sobre eleições, e quase metade enfrenta dificuldades para discernir informações verdadeiras das enganosas.
O impacto é significativo, com 85% das pessoas globalmente preocupadas com o problema, segundo uma pesquisa da ONU. Além disso, a disseminação da desinformação apresenta semelhanças notáveis com a propagação de vírus, permitindo que cientistas usem modelos matemáticos baseados na epidemiologia para estudá-la.
Esses modelos ajudam a compreender como as notícias falsas “infectam” populações, destacando a importância de intervenções preventivas. Modelos como o SIR (Suscetível-Infectado-Recuperado) foram adaptados para analisar a disseminação da desinformação.
Neles, indivíduos suscetíveis (S) são expostos a conteúdos enganosos, tornando-se “infectados” (I) e, posteriormente, imunes ou resistentes (R). A taxa de propagação, medida pelo número básico de reprodução (R0), revela o potencial epidêmico das plataformas de mídia social na amplificação de informações falsas.
Estudos mostram que plataformas como Twitter, Facebook e Instagram possuem um R0 maior que 1, indicando alta probabilidade de disseminação. Isso reflete a realidade, onde figuras públicas ou contas com grande alcance atuam como “superdisseminadores”, espalhando desinformação para milhões de pessoas.
No ciclo eleitoral de 2024 nos EUA, foram registradas falsas alegações sobre “manipulação do clima” em desastres naturais, além de notícias fabricadas envolvendo comunidades imigrantes e teorias conspiratórias amplificadas por figuras influentes, como Elon Musk.
A desinformação não apenas distorce o entendimento público, mas também fomenta divisões sociais e políticas. Para conter a desinformação, cientistas defendem o uso de estratégias como o prebunking ou inoculação psicológica.
Essa abordagem preventiva envolve apresentar aos indivíduos falsidades enfraquecidas, acompanhadas de explicações que os ajudem a reconhecer informações enganosas no futuro. Por exemplo, chatbots de inteligência artificial têm sido utilizados para desmascarar mitos eleitorais antes que eles se tornem virais.
Ao alertar sobre táticas sensacionalistas, como teorias de fraude eleitoral, as “inoculações” capacitam os usuários a resistir à desinformação. Modelos matemáticos mostram que o uso eficaz do prebunking pode reduzir significativamente o número de pessoas “infectadas” pela desinformação.
Simulações indicam que, sem essas intervenções, a disseminação é muito mais rápida e difícil de conter. Embora modelos epidemiológicos não sejam perfeitos, eles fornecem uma base científica para prever a dinâmica da desinformação e avaliar a eficácia de medidas de contenção.
A pesquisa aponta que um pequeno número de “superdisseminadores” é responsável por grande parte da desinformação nas redes. Esse padrão reflete o comportamento de certos vírus, em que poucos portadores impulsionam a maioria dos casos de infecção.