A indústria da mentira: como a IA passou a fabricar caos político e realidades artificiais
A inteligência artificial deixou de apenas amplificar vieses: passou a escalar intenções humanas, criando narrativas sintéticas que corroem a confiança social e exigem liderança ética e regulação firme.
Por Rolando Esswein Bürgel
Fonte: Referências AI Act (UE); MIT Technology Review; The Economist; Stanford HAI; OECD; World Economic Forum; debates públicos internacionais sobre IA e desinformação.

Crédito: Ruah By Gemini
O cerne do debate tecnológico contemporâneo já não reside na capacidade da Inteligência Artificial (IA) de replicar ou superar a inteligência humana. A provocação verdadeiramente relevante está no risco ético de uma tecnologia com poder sem precedentes ser direcionada para industrializar a irresponsabilidade e, em cenários mais graves, fabricar a própria percepção de realidade.
Há algum tempo venho sustentando que o maior risco — e também o maior benefício — da IA está em sua capacidade de escalar a intenção humana, seja ela construtiva ou destrutiva. O que se observa, cada vez com mais frequência, não é apenas a amplificação de vieses ou a circulação de informações falsas, mas a produção deliberada de narrativas artificiais, desenhadas para gerar pânico social, ruído informacional e instabilidade política.
Casos recentemente debatidos na mídia brasileira e internacional, envolvendo o uso de ferramentas algorítmicas para simular cenários econômicos ou institucionais sem lastro empírico suficiente, evidenciam esse risco. Independentemente de controvérsias editoriais específicas, o ponto central é mais profundo: a IA passou a permitir a fabricação de crises narrativas com aparência de legitimidade técnica, algo qualitativamente diferente da desinformação tradicional.
A IA possui enorme potencial positivo. No setor público, por exemplo, tecnologias de análise avançada vêm sendo empregadas por órgãos de controle, como tribunais de contas, para auditorias, detecção de inconsistências e fiscalização baseada em dados objetivos. No setor privado, ela impulsiona ganhos reais em produtividade, logística, análise de risco e personalização de serviços. Esses usos são legítimos, auditáveis e socialmente desejáveis.
O problema emerge quando a mesma capacidade tecnológica é aplicada à engenharia de narrativas. Nesse ponto, a IA deixa de ser apenas um amplificador de informações e passa a atuar como um vetor de risco algorítmico à estabilidade democrática. Não se trata mais de erro estatístico, falha de modelo ou viés não intencional. Trata-se de decisão humana, orientada por interesses políticos, econômicos ou ideológicos.
A desinformação sempre existiu, mas era limitada por esforço humano, tempo e alcance. A IA generativa rompeu essas barreiras. Hoje, narrativas artificiais podem ser produzidas em escala industrial, com coerência textual, sofisticação visual e linguagem técnica suficientes para confundir até leitores atentos. A detecção torna-se exponencialmente mais complexa, enquanto o dano potencial cresce na mesma proporção.
Nesse nível, o erro já não é algorítmico. É ético, deliberado e estrutural. Atribuir esse fenômeno a um suposto “mal funcionamento do sistema” é uma forma de evasão moral. Tecnologia é, por definição, instrumental. Ela apenas potencializa a intenção de quem a projeta, treina e utiliza. Quando sistemas são empregados para fabricar percepções de crise, o problema reside na liderança, na governança e na responsabilidade editorial.
A principal consequência desse processo é a erosão da credibilidade. Quando o cidadão já não consegue distinguir entre dados legítimos, analisados com base empírica, e narrativas sintéticas produzidas por prompts mal-intencionados, o debate público se dissolve. A confiança institucional entra em colapso silencioso.
Como se proteger de uma desinformação cuja autoria não é mais individual, mas sistêmica? Essa é uma das questões centrais da sociedade 5.0.
É fundamental separar o potencial legítimo da IA de seu uso predatório. Startups, empresas e governos utilizam algoritmos para otimizar cadeias produtivas, fiscalizar recursos públicos e apoiar decisões complexas com base em dados verificáveis. Em contraste, a aplicação dessas mesmas técnicas à comunicação política e midiática, sem transparência, permite uma hiper-segmentação narrativa capaz de atingir públicos específicos com precisão cirúrgica, amplificando medo, polarização e desinformação.
Esse dilema já mobiliza governos ao redor do mundo. A União Europeia, com o AI Act, busca classificar e mitigar riscos. Estados Unidos e países asiáticos concentram esforços na autenticação de conteúdo e no combate a deepfakes. O Brasil, ao avançar em um Marco Regulatório da IA, precisa aprender com essas experiências e reconhecer que a manipulação algorítmica do debate público deve ser tratada como risco inaceitável.
Para enfrentar essa verdadeira indústria da desconfiança, a resposta precisa ser multidimensional. A meu ver, três pilares são indispensáveis.
O primeiro é a Cultura da Dúvida Qualificada. Não basta perguntar “quem escreveu”. A pergunta moralmente relevante passa a ser: quem se beneficia do caos produzido por essa narrativa? O foco deve migrar da autoria aparente para o interesse estrutural por trás da informação.
O segundo é a Transparência Algorítmica e Editorial. Veículos comprometidos com a credibilidade precisam sinalizar de forma clara, auditável e padronizada o uso de ferramentas de IA em seus conteúdos. A autenticidade informacional deve ser tratada como valor público e diferencial competitivo.
O terceiro pilar é a Regulação à Altura do Risco. O marco legal brasileiro precisa responsabilizar, de forma clara, o uso da IA para manipulação deliberada de informações sensíveis. A liberdade de expressão não pode ser confundida com a liberdade de fabricar realidades artificiais que corroem a ordem democrática.
A Inteligência Artificial é uma força transformadora. Ela redefine produtividade, inovação e tomada de decisão em praticamente todos os setores. Mas a mesma potência que impulsiona avanços sem precedentes pode, se mal direcionada, produzir um grau inédito de desordem informacional.
Hoje, a linha que separa a análise legítima da fabricação de crises é, muitas vezes, apenas um prompt e uma intenção. A tecnologia forneceu o megafone. A responsabilidade continua sendo humana. O tempo para agir é agora, e o futuro exigirá líderes capazes de unir rigor técnico, lucidez ética e responsabilidade institucional.

