Campanha de desinformação

Uso deliberado de disseminação de inverdades com objetivo de enganar ou manipular as massas

Campanhas de desinformação consistem na disseminação intencional de informações falsas, com o objetivo final de enganar, confundir ou manipular sua audiência.[1] Ataques de desinformação podem ser executados por atores estatais ou não estatais para influenciar populações nacionais ou estrangeiras. Esses ataques são comumente empregados para remodelar atitudes e crenças, direcionar uma determinada agenda ou extrair certas ações de um público-alvo.[2][3]

As campanhas de desinformação podem ser realizadas pelos meios de comunicação tradicionais, como canais de TV e rádios patrocinados pelo estado.[4] No entanto, os ataques de desinformação têm se tornado cada vez mais generalizados e potentes com o advento das mídias sociais. Ferramentas digitais como bots, algoritmos e tecnologia de IA são aproveitadas para espalhar e amplificar a desinformação e focar em populações específicas nas plataformas digitais como Instagram, Twitter, Facebook e YouTube.[5]

Os campanhas de desinformação podem representar ameaças à democracia em espaços online, à integridade dos processos eleitorais, como a eleição presidencial dos Estados Unidos de 2016, e à segurança nacional em geral.[6]

As medidas de defesa incluem aplicações de aprendizado de máquina que podem sinalizar desinformação em plataformas, sistemas de verificação de fatos e ajuste algorítmico e colaboração entre empresas privadas de mídia social e governos na criação de soluções e compartilhamento de informações importantes.[3] Programas educacionais também estão sendo desenvolvidos para ensinar as pessoas a discernir melhor entre fatos e desinformação online.[7]

Métodos para difundir campanhas de desinformação editar

Meios de comunicação tradicionais editar

Canais de mídia tradicionais podem ser utilizados para difundir desinformação. Por exemplo, o Russia Today é um canal de notícias financiado pelo estado que é transmitido internacionalmente. O objetivo é aumentar a reputação da Rússia no exterior e também retratar as nações ocidentais, como os Estados Unidos, de forma negativa. Ele cobre aspectos negativos dos Estados Unidos e apresenta teorias de conspiração destinadas a enganar e desinformar seu público.[4]

Mídia social editar

Os perpetradores utilizam principalmente os canais de mídia social como meio para espalhar a desinformação. Eles aproveitam uma variedade de ferramentas para realizar ataques de desinformação, como bots, algoritmos, tecnologias deep fake e princípios psicológicos.

  • Bots (robots) são agentes automatizados que podem produzir e espalhar conteúdo em plataformas sociais online. Muitos bots podem se envolver em interações básicas com outros bots e humanos. Em campanhas de ataque de desinformação, eles são aproveitados para disseminar desinformação rapidamente e comprometer a integridade das redes sociais digitais. Os bots podem produzir a ilusão de que uma parte da informação vem de uma variedade de fontes diferentes. Ao fazer isso, as campanhas de ataque de desinformação tornam seu conteúdo crível por meio de exposições repetidas e variadas.[8] Ao inundar os canais de mídia social com conteúdo repetido, os bots também podem alterar algoritmos e desviar a atenção online para o conteúdo de desinformação.[3]
  • Algoritmos são aproveitados para amplificar a disseminação da desinformação. Os algoritmos filtram e personalizam as informações dos usuários e modificam o conteúdo que eles consomem.[9] Um estudo descobriu que algoritmos podem ser canais de radicalização porque apresentam conteúdo com base em seus níveis de envolvimento do usuário. Os usuários são atraídos mais para conteúdo radical, chocante e click-bait.[10] Como resultado, postagens extremistas e que chamam a atenção podem angariar altos níveis de engajamento por meio de algoritmos. Campanhas de desinformação podem alavancar algoritmos para amplificar seu conteúdo extremista e semear a radicalização online.[11]
  • Deep fake é o conteúdo digital que foi profundamente manipulado. A tecnologia deep fake pode ser aproveitada para difamar, chantagear e personificar alguém. Devido ao seu baixo custo e eficiência, produções deep fake podem ser usadas para espalhar desinformação mais rapidamente e em maior volume do que os humanos. Campanhas de ataque de desinformação podem utilizar essa tecnologia para gerar desinformação sobre pessoas, estados ou narrativas. A tecnologia deep fake pode ser usada como arma para enganar o público e espalhar falsidades.[12]
  • A psicologia humana também é aplicada para tornar os ataques de desinformação mais potentes e virais. Fenômenos psicológicos, como estereotipagem, viés de confirmação, atenção seletiva e câmaras de eco, contribuem para a viralidade e o sucesso da desinformação nas plataformas digitais.[13] Os ataques de desinformação são frequentemente considerados um tipo de guerra psicológica devido ao uso de técnicas psicológicas para manipular populações.[14]

Exemplos editar

Campanhas de desinformação contra eleitorado local editar

Campanhas de desinformação do eleitorado local são frequentemente utilizadas por autocratas com o objetivo de encobrir a corrupção eleitoral . A desinformação do eleitor inclui declarações públicas que afirmam que os processos eleitorais locais são legítimos e declarações que desacreditam os monitores eleitorais. Firmas de relações públicas também podem ser contratadas para executar campanhas especializadas de desinformação, incluindo anúncios na mídia e lobby nos bastidores. Por exemplo, agentes estatais empregaram ataques de desinformação de eleitores para reeleger Ilham Aliyev nas eleições presidenciais do Azerbaijão de 2013. Eles restringiram o monitoramento eleitoral, permitindo que apenas certos grupos, como os ex-aliados da república soviética, observassem o processo eleitoral. Firmas de relações públicas também foram contratadas para divulgar a narrativa de uma eleição honesta e democrática.[15]

Campanhas russas editar

  • Uma operação russa conhecida como The Internet Research Agency (IRA) gastou milhares em anúncios de mídia social para influenciar as eleições presidenciais de 2016 nos EUA. Esses anúncios políticos alavancaram os dados do usuário e para microsegmentar e espalhar informações enganosas para certas populações, com o objetivo final de aumentar a polarização e comprometer a confiança do público nas instituições políticas.[16] O Projeto de Propaganda de Computação da Universidade de Oxford descobriu que os anúncios do IRA buscavam especificamente semear a desconfiança em relação ao governo dos Estados Unidos entre os mexicanos-americanos e desencorajar a participação eleitoral entre os afro-americanos.[17]
  • O Russia Today é um canal de notícias financiado pelo estado que visa aumentar a reputação da Rússia no exterior e retratar as nações ocidentais de uma forma negativa. Tem servido como uma plataforma para disseminar propaganda e conspirações a respeito de estados ocidentais como os EUA [4]
  • Durante a Guerra Russo-Ucraniana de 2014, a tradicional guerra de combate da Rússia com ataques de desinformação em sua estratégia ofensiva. Os ataques de desinformação foram alavancados para semear dúvidas e confusão entre as populações inimigas e intimidar os adversários, erodir a confiança do público nas instituições ucranianas e aumentar a reputação e a legitimidade da Rússia. Essa guerra híbrida permitiu à Rússia exercer efetivamente o domínio físico e psicológico sobre as populações-alvo durante o conflito.[18]

Outras campanhas notáveis editar

Um aplicativo chamado “Dawn of Glad Tidings”, desenvolvido por membros do Estado Islâmico, auxilia nos esforços da organização para disseminar rapidamente a desinformação nos canais de mídia social. Quando um usuário baixa o aplicativo, ele é solicitado a vinculá-lo à sua conta do Twitter e conceder ao aplicativo acesso para tweetar de sua conta pessoal. Como resultado, este aplicativo permite que tweets automatizados sejam enviados de contas de usuários reais e ajuda a criar tendências no Twitter que amplificam a desinformação produzida pelo Estado Islâmico em um âmbito internacional.[17]

Preocupações éticas editar

  • Há uma preocupação crescente de que a Rússia possa empregar ataques de desinformação para desestabilizar certos membros da OTAN, como os Países Bálticos . Estados com contextos políticas altamente polarizadas e baixa confiança pública na mídia local e no governo são particularmente vulneráveis a ataques de desinformação.[19] A Rússia pode empregar desinformação, propaganda e intimidação para coagir esses estados a aceitar as narrativas e a agenda russas.[17]
  • Ataques de desinformação podem erodir a democracia no ambiente digital. Com a ajuda de algoritmos e bots, a desinformação e notícias falsas podem ser ampliadas, os feeds de conteúdo dos usuários podem ser ajustados e limitados, e as câmaras de eco podem ser facilmente desenvolvidas.[20] Dessa forma, os ataques de desinformação podem gerar polarização política e alterar o discurso público.[21]
  • Durante a eleição presidencial dos EUA de 2016, as campanhas de influência russa empregaram técnicas de hacking e ataques de desinformação para confundir o público sobre questões políticas importantes e semear a discórdia. Especialistas temem que ataques de desinformação sejam cada vez mais usados para influenciar eleições nacionais e processos democráticos.[6]

Medidas de defesa editar

Federal editar

A administração Trump apoiou iniciativas para avaliar a tecnologia de blockchain como um mecanismo de defesa potencial contra a manipulação da Internet. O Blockchain é um banco de dados seguro e descentralizado que pode armazenar e proteger informações transacionais. A tecnologia Blockchain poderia ser aplicada para tornar o transporte de dados mais seguro em espaços online e nas redes da Internet das Coisas, tornando difícil para os atores alterar ou censurar conteúdo e realizar ataques de desinformação.[22]

A "Operação Glowing Symphony" em 2016 foi outra iniciativa federal que buscou combater os ataques de desinformação. Esta operação tentou dissipar a propaganda do ISIS nos canais de mídia social. No entanto, não teve muito sucesso: os atores do ISIS continuaram a disseminar propaganda em outras plataformas online não monitoradas.[23]

Privado editar

Empresas privadas de mídia social desenvolveram ferramentas para identificar e combater a desinformação em suas plataformas. Por exemplo, o Twitter usa aplicativos de aprendizado de máquina para sinalizar conteúdo que não está em conformidade com seus termos de serviço e identificar postagens extremistas que incentivam o terrorismo. O Facebook e o Google desenvolveram um sistema de hierarquia de conteúdo onde verificadores de fatos podem identificar e desinformar possíveis desinformações e ajustar algoritmos de acordo.[6] Muitas empresas estão considerando o uso de sistemas jurídicos processuais para regular o conteúdo de suas plataformas também. Especificamente, eles estão considerando o uso de sistemas de apelação: as postagens podem ser retiradas por violar os termos de serviço e representar uma ameaça de desinformação, mas os usuários podem contestar essa ação por meio de uma hierarquia de órgãos de apelação.[11]

Medidas colaborativas editar

Os especialistas em segurança cibernética afirmam que a colaboração entre os setores público e privado é necessária para combater com êxito os ataques de desinformação. As estratégias de defesa cooperativas incluem:

  • A criação de "consórcios de detecção de desinformação" onde os setores interessados (isto é, empresas privadas de mídia social e governos) se reúnem para discutir ataques de desinformação e propor estratégias de defesa mútua.[3]
  • Compartilhamento de informações críticas entre empresas privadas de mídia social e o governo, para que estratégias de defesa mais eficazes possam ser desenvolvidas.[24]
  • Coordenação entre governos para criar uma resposta unificada e eficaz contra as campanhas transnacionais de desinformação.

Educação e conscientização editar

Em 2018, o vice-presidente executivo da Comissão Europeia para uma Europa adequada à era digital reuniu um grupo de especialistas para produzir um relatório com recomendações para o ensino da alfabetização digital. Os currículos de alfabetização digital propostos familiarizam os alunos com sites de verificação de fatos, como Snopes e FackCheck.org. Este currículo visa equipar os alunos com habilidades de pensamento crítico para discernir entre o conteúdo factual e a desinformação online.[7]

Ver também editar

Referências

  1. Fallis, Don (2015). «What Is Disinformation?». Library Trends (em inglês). 63: 401–426. ISSN 1559-0682. doi:10.1353/lib.2015.0014 
  2. Behavioral Sciences Department, De La Salle University, Manila, Philippines; Collado, Zaldy C.; Basco, Angelica Joyce M.; Communication Department, Adamson University, Manila, Philippines; Sison, Albin A.; Communication Department, Adamson University, Manila, Philippines (26 de junho de 2020). «Falling victims to online disinformation among young Filipino people: Is human mind to blame?». Cognition, Brain, Behavior. 24: 75–91. doi:10.24193/cbb.2020.24.05 
  3. a b c d Frederick, Kara (2019). «The New War of Ideas: Counterterrorism Lessons for the Digital Disinformation Fight» 
  4. a b c Ajir, Media; Vailliant, Bethany (2018). «Russian Information Warfare: Implications for Deterrence Theory». Strategic Studies Quarterly. 12: 70–89. ISSN 1936-1815. JSTOR 26481910 
  5. Katyal, Sonia K. (2019). «Artificial Intelligence, Advertising, and Disinformation». Advertising & Society Quarterly (em inglês). 20. ISSN 2475-1790. doi:10.1353/asr.2019.0026 
  6. a b c Downes, Cathy (2018). «Strategic Blind–Spots on Cyber Threats, Vectors and Campaigns». The Cyber Defense Review. 3: 79–104. ISSN 2474-2120. JSTOR 26427378 
  7. a b Glisson, Lane (2019). «Breaking the Spin Cycle: Teaching Complexity in the Age of Fake News». Portal: Libraries and the Academy (em inglês). 19: 461–484. ISSN 1530-7131. doi:10.1353/pla.2019.0027 
  8. Kirdemir, Baris (2019). «HOSTILE INFLUENCE AND EMERGING COGNITIVE THREATS IN CYBERSPACE». Centre for Economics and Foreign Policy Studies 
  9. Sacasas, L. M. (2020). «The Analog City and the Digital City». The New Atlantis: 3–18. ISSN 1543-1215. JSTOR 26898497 
  10. Brogly, Chris; Rubin, Victoria L. (2018). «Detecting Clickbait: Here's How to Do It / Comment détecter les pièges à clic». Canadian Journal of Information and Library Science (em inglês). 42: 154–175. ISSN 1920-7239 
  11. a b Heldt, Amélie (2019). «Let's Meet Halfway: Sharing New Responsibilities in a Digital Age». Journal of Information Policy. 9: 336–369. ISSN 2381-5892. JSTOR 10.5325/jinfopoli.9.2019.0336. doi:10.5325/jinfopoli.9.2019.0336 
  12. «Weaponised deep fakes: National security and democracy on JSTOR». www.jstor.org (em inglês). Consultado em 12 de novembro de 2020 
  13. Buchanan, Tom (7 de outubro de 2020). «Why do people spread false information online? The effects of message and viewer characteristics on self-reported likelihood of sharing social media disinformation». PLOS ONE (em inglês). 15: e0239666. Bibcode:2020PLoSO..1539666B. ISSN 1932-6203. PMC 7541057 . PMID 33027262. doi:10.1371/journal.pone.0239666 
  14. Thomas, Timothy L. (2020). «Information Weapons: Russia's Nonnuclear Strategic Weapons of Choice». The Cyber Defense Review. 5: 125–144. ISSN 2474-2120. JSTOR 26923527 
  15. Merloe, Patrick (2015). «Election Monitoring Vs. Disinformation». Journal of Democracy (em inglês). 26: 79–93. ISSN 1086-3214. doi:10.1353/jod.2015.0053 
  16. Crain, Matthew; Nadler, Anthony (2019). «Political Manipulation and Internet Advertising Infrastructure». Journal of Information Policy. 9: 370–410. ISSN 2381-5892. JSTOR 10.5325/jinfopoli.9.2019.0370. doi:10.5325/jinfopoli.9.2019.0370 
  17. a b c Prier, Jarred (2017). «Commanding the Trend: Social Media as Information Warfare». Strategic Studies Quarterly. 11: 50–85. ISSN 1936-1815. JSTOR 26271634 
  18. Wither, James K. (2016). «Making Sense of Hybrid Warfare». Connections. 15: 73–87. ISSN 1812-1098. JSTOR 26326441. doi:10.11610/Connections.15.2.06 
  19. Humprecht, Edda; Esser, Frank; Van Aelst, Peter (julho 2020). «Resilience to Online Disinformation: A Framework for Cross-National Comparative Research». The International Journal of Press/Politics (em inglês). 25: 493–516. ISSN 1940-1612. doi:10.1177/1940161219900126 
  20. Peck, Andrew (2020). «A Problem of Amplification: Folklore and Fake News in the Age of Social Media». The Journal of American Folklore. 133: 329–351. ISSN 0021-8715. JSTOR 10.5406/jamerfolk.133.529.0329. doi:10.5406/jamerfolk.133.529.0329 
  21. Unver, H. Akin (2017). «Politics of Automation, Attention, and Engagement». Journal of International Affairs. 71: 127–146. ISSN 0022-197X. JSTOR 26494368 
  22. Sultan, Oz (2019). «Tackling Disinformation, Online Terrorism, and Cyber Risks into the 2020s». The Cyber Defense Review. 4: 43–60. ISSN 2474-2120. JSTOR 26623066 
  23. Brown, Katherine A.; Green, Shannon N.; Wang, Jian “Jay” (2017). «Public Diplomacy and National Security in 2017: Building Alliances, Fighting Extremism, and Dispelling Disinformation» 
  24. White, Adam J. (2018). «Google.gov: Could an alliance between Google and government to filter facts be the looming progressive answer to "fake news"?». The New Atlantis: 3–34. ISSN 1543-1215. JSTOR 26487781