O hype da IA te enganou de novo
Publicado em 05 de novembro de 2025

Você já notou como a gente acha que enxerga o mundo como ele realmente é, enquanto os outros é que veem tudo distorcido? Eu chamo isso de "voz de justiça": quando a gente vai contar pra alguém uma história que envolve um terceiro que consideramos antagonista, geralmente é assim:
"Não mas aí a moça do caixa falou "nim vici nim pidi pissir sí im priditi" (voz do vilão, leia com som e boca d enojo). E aí eu respondi pra ela "minha nobre senhora, não acredito que seja bem assim, o que acha de conversarmos com um gerente" (voz de justiça, entone com calma e razão).
Quando na verdade, o mais provável é que os dois estavam com voz de vilão. Ou nenhum. A psicologia chama isso de realismo ingênuo: a tendência de confundir opinião com realidade.
Agora coloque essa heurística humana na frente de um “assistente” que fala como gente, lembra de você, personaliza o tom e ainda tenta te agradar. Se ele disser exatamente o que você pensa, você sente que ele é equilibrado, racional, confiável. Se divergir, vira “tendencioso”. É com essa fricção que trabalha um estudo recente de Messer e colegas, da Universidade Bundeswehru de Munique, publicado em Computers in Human Behavior: Artificial Humans. A pergunta deles é direta: o que acontece quando viés político e personalização de IA se encontram?
O desenho dos experimentos é engenhoso justamente por não parecer político à primeira vista. No primeiro, os autores apresentam imagens de “famílias felizes” geradas por uma IA fictícia: num conjunto, cenas que evocam valores liberais; no outro, quadros que sugerem valores conservadores. Em seguida, pedem que as pessoas julguem se seria aceitável usar aquela IA para pré-triagem de crédito em um banco. O que pesa não é a qualidade do algoritmo nem métricas de acurácia, mas é o quão “alinhada” a IA parece com a orientação política do participante. Quanto mais alinhada, maior a aceitação do uso em um contexto de alto risco (crédito). Quando desalinha, a percepção de “viés” sobe e a aceitação cai.
No segundo experimento, a mise-en-scène fica ainda mais realista: pedem ao participante que digite o próprio prompt para gerar imagens de “famílias felizes” e, após uma animação de carregamento, mostram novamente conjuntos com sinais liberais ou conservadores. O cenário agora é moderação de conteúdo em rede social. O padrão se repete: quem vê saídas esteticamente próximas de sua visão de mundo julga a IA mais “certa de si” e vê a empresa de forma mais favorável; quem se sente contrariado percebe “viés” e rejeita o uso.
O terceiro teste muda de mídia e de risco: sai a imagem, entra texto; sai opinião sobre “aceitabilidade” e entra confiança na prática. Os participantes leem uma resposta do chatbot sobre política migratória dos EUA, ora com ênfase liberal, ora conservadora. Depois, decidem quantas permissões do celular conceder ao app: localização, microfone, câmera, contatos, fotos, calendário, saúde, pagamentos, mensagens. O resultado dói porque é simples: quando a resposta parece alinhada, as pessoas julgam a IA mais “objetiva” e liberam mais acesso. Não foi a arquitetura do modelo que mudou, nem a métrica de avaliação: foi a sensação de espelho.
Se você trabalha com produto, a implicação é incômoda. Dá para aumentar aceitação e acesso a dados sensíveis sem melhorar uma linha do código do modelo, apenas calibrando o “acordo” ideológico com o usuário. Personalização, quando cruza com política, vira um atalho de confiança. É um convite a um risco clássico de incentivos: por que investir em robustez técnica se alinhar o discurso rende mais? O nome disso não é “experiência do usuário”, mas sim um risco moral.
Só que o estudo também funciona como "manual de defesa do usuário esclarecido". Primeiro, porque lembra que IA conversa como gente e, por isso, herda a nossa antropomorfização. A gente julga “calor” e “competência”, simpatia e antipatia, como se houvesse intenção, e não um gerador de texto. Segundo, porque mostra que “objetividade percebida” é fortemente mediada por alinhamento prévio. Em outras palavras: não basta a IA “te entender”; ela precisa te contradizer de vez em quando para você não confundir conforto com verdade.
Há, claro, um lado prático para quem projeta sistemas: separar camadas. Personalize tom, vocabulário, exemplos, mas não personalize padrão de evidência. Deixe visível quando uma saída tem baixa confiança, explicite fontes, mostre alternativas razoáveis e, sempre que possível, coloque o usuário diante de contrapontos. E, se o domínio for de alto risco (crédito, saúde, segurança pública), ancore a interface em critérios auditáveis. Alinhamento afetivo não pode virar autorização silenciosa.
No fundo, a pergunta política do estudo desemboca numa questão de design: qual é a fronteira entre ser “agradável” e ser “honesto” com o usuário? A resposta menos romântica é que sistemas que só confirmam a nossa visão de mundo aumentam engajamento, mas corroem julgamento crítico. E o preço de um clique a mais não pode ser a erosão de um direito a menos. Se o seu produto precisa que a pessoa concorde com a máquina para funcionar, talvez o problema não esteja no usuário e sim esteja no produto.
Para quem lê antropousia há mais tempo, nada disso é exatamente surpresa. A gente insiste que tecnologia digital não está isenta da cultural, é, antes de tudo, política encarnada em interface. Um botão que pede “permitir acesso total” depois de um discurso que você já gostou não é neutro, é um ato de persuasão. E persuasão, quando escapa do mérito técnico, volta para o campo onde sempre foi mais forte: o de confirmar quem achamos que somos, de nos dar "voz de justiça".
Vale a regra de bolso para os próximos anos de IA generativa: desconfie da máquina que nunca te contraria, desconfie mais ainda da que pede sua geolocalização em seguida, e celebre aquelas que expõem incerteza, limites e fontes. A democracia agradece. E a sua privacidade também.



