Por Elsa Lemos (Especialista em Comunicação de Crise e Mestre em Guerra de Informação)
A expressão Information Laundering — lavagem de informação — não é ainda de uso comum fora de círculos especializados, mas descreve um fenómeno que já está plenamente instalado no espaço público. Ouvi de novo o termo recentemente e fiquei com a sensação clara de que estamos a subestimar o seu alcance. Talvez porque, ao contrário da desinformação clássica, esta prática não se apresenta somente como mentira. Pelo contrário: é silenciosa, opera de forma discreta, cumulativa e com um impacto que só se percebe quando já está instalado.
Nas crises contemporâneas, a manipulação informativa deixou de ser apenas um subproduto do caos. Tornou-se uma ferramenta estratégica para desestabilizar, descredibilizar e influenciar pessoas, organizações e Estados. O caso da guerra na Ucrânia é paradigmático, mas não é excecional. Hoje sabemos que campanhas coordenadas de desinformação russa estão a infiltrar-se no próprio ecossistema da inteligência artificial generativa. Não porque a IA ‘mente’, mas porque é treinada num ecossistema digital que pode ser intencionalmente contaminado.
Quando um verdadeiro exército de sites é criado para disseminar narrativas falsas ou enviesadas — muitas vezes escritas para serem bem indexadas por motores de busca — o efeito não se limita ao público humano. Esses conteúdos passam a fazer parte do tecido informacional da Internet. À medida que se tornam predominantes, modelos de IA como o ChatGPT, Claude, Gemini, Grok ou Perplexity podem incorporá-los nos seus processos ou considerá-los fontes “potencialmente válidas”. O resultado é simples e inquietante: respostas que repetem, normalizam ou amplificam propaganda. É isto a que chamamos de Lavagem de Informação.
Tal como na lavagem de dinheiro, a lógica é a da legitimação progressiva. Uma informação falsa ou manipulada percorre diferentes canais, muda de contexto, ganha novas “assinaturas” e, ao fim de algum tempo, parece limpa. Credível. Aceitável. Mas isto não é apenas desinformação, eu chamaria de engenharia reputacional aplicada à mentira.
Se deslocarmos o foco da geopolítica para a escala organizacional ou individual, o mecanismo mantém-se. Onde há Estados, há adversários; onde há empresas, há concorrentes; onde há líderes, CEO’s ou figuras públicas, há críticos organizados, haters ou campanhas coordenadas. Conteúdos repetitivos, ataques subtis à reputação, narrativas insinuadas como “dúvidas legítimas”. A escala pode variar, mas o impacto é real. Entramos aqui no domínio da guerra cognitiva, ainda pouco discutida, exceto nos meios militares.
Neste processo, as narrativas não se limitam a redes sociais. Espalham-se por múltiplos sites que aparentam ser meios independentes, blogs especializados ou plataformas de opinião. Frequentemente, esta técnica é combinada com outra: a inundação informativa. Grandes volumes de conteúdo são lançados para ocupar o espaço mediático, abafar vozes críticas e diluir factos verificados. Não é um fenómeno novo — grupos extremistas como a Al Qaeda já o faziam — mas a tecnologia atual deu-lhe uma escala sem precedentes. O mecanismo é tecnicamente simples, mas com efeitos profundos: a falsidade percorre uma cadeia de validações até adquirir aparência de credibilidade. E se já desconfiávamos das redes sociais como veículos de desinformação, a integração da IA neste ecossistema elevou o problema a outro patamar. Não se trata de alarmismo. Trata-se de realismo estratégico.
Num cenário de crise contínua — aquilo a que hoje se chama permacrise — este fenómeno encontra terreno fértil. As pessoas estão emocionalmente vulneráveis, à procura de orientação, de segurança, de algo em que acreditar. Públicos internos, clientes, cidadãos e decisores tornam-se mais suscetíveis a conteúdos emocionais, imagens chocantes, rumores dramatizados e narrativas que alimentam o pânico. A ciência ajuda-nos a perceber porquê. Estudos em neurociência e psicologia cognitiva mostram que a desinformação prospera porque explora vulnerabilidades que todos partilhamos. Em contexto de stress, as emoções ganham primazia sobre a avaliação racional. Procuramos respostas rápidas. Confiamos em quem comunica com segurança. E, ironicamente, estes mesmos mecanismos afetam também quem comunica oficialmente.
Na comunicação de crise, o fator humano é frequentemente o elo mais frágil. Viéses cognitivos entram em ação sem que nos apercebamos. O viés da simpatia, por exemplo, surge quando queremos ser prestáveis. Em plena crise, um colaborador pode achar que está a ajudar um cliente ansioso ou um jornalista insistente e acaba por partilhar informação que ainda não devia ser pública. Pequenos detalhes “inofensivos” transformam-se em ruído, confusão ou risco reputacional.
Já o viés da autoridade leva-nos a confiar automaticamente em quem parece ocupar uma posição legítima. Um email que aparenta vir da liderança, de uma entidade oficial ou de um “especialista” pode desencadear a partilha de dados sensíveis sem verificação adequada. Em contextos de pressão, estes atalhos mentais tornam-se perigosos.
Perante este cenário, a resposta não pode ser improvisada. A transparência — em crise e fora dela — continua a ser um pilar central, porque a opacidade alimenta o espaço da manipulação. Porta-vozes e lideranças treinadas reduzem o risco de mensagens contraditórias ou emocionalmente reativas. Protocolos definidos antes da crise evitam que o rumor corra mais depressa do que a organização. Processos internos de verificação ajudam a distinguir o real do fabricado antes que a narrativa se consolide. E, sobretudo, verificar e desmentir deixa de ser opcional.
Mas nada disto funciona de forma isolada. A resposta à desinformação exige uma estratégia integrada, que envolva media, stakeholders internos, sociedade civil e, quando aplicável, entidades públicas. A narrativa só se sustenta quando é construída com consistência e legitimidade.
A pergunta final é desconfortável, mas necessária: se amanhã alguém lançar uma campanha de lavagem de informação sobre si ou sobre a sua organização — com imagens fabricadas, perfis falsos, “fontes credíveis” e mensagens repetidas em volume — estaria preparado para responder? Estaria disposto a priorizar a transparência, mesmo que isso implique admitir vulnerabilidades ou limites? Se a resposta for “não tenho a certeza”, então este é o momento certo para agir. A credibilidade não se constrói no dia da crise! Constrói-se muito antes, com treino, protocolos, capacidade de verificação e consciência de que, hoje, a batalha não é apenas pelos factos, mas pela forma como estes são percebidos, legitimados e recordados.
____
Artigos assinados expressam a opinião de seus autores.
*artigo publicado originalmente no Blog Elsa Lemos Crisis Communication e na newsletter Crisis News.