Afinal, a IA é custo ou solução energética?
Publicado em 10 de outubro de 2025

Pensa comigo: você é médico plantonista. Está há 23 horas em pé. Seu corpo pesa o triplo, e a cabeça funciona no modo automático. Falta pouco para o fim do turno, e tudo o que separa você da sua família, do banho e do silêncio é uma pilha de relatórios: exames, altas, encaminhamentos, prescrições...
Você olha o relógio, suspira, toma um gole de café (morno) e decide fazer o que centenas de profissionais já vêm fazendo em silêncio: abrir o software de IA que o hospital instalou há algumas semanas.
Digita os dados do paciente, algumas instruções básicas. O sistema começa a gerar relatórios limpos, padronizados, impecáveis. Você arrisca um pequeno sorriso quase que involuntário.
Aí você começa a bater o olho com um tiquinho mais de profundidade e... algo trava.
No prontuário de uma mulher de trinta e poucos anos, com dor abdominal intensa e persistente, o sistema recomenda apenas “analgésico simples” e “compressa morna”. Sem exames, sem hipótese alternativa, sem urgência. Motivo provável: “dor menstrual”.
Você sente um arrepio.
Não há nada no histórico da paciente que indique isso. Mas o modelo “decidiu” (e o verbo aqui não é metafórico) que aquele corpo, sendo feminino, provavelmente estava exagerando.
A máquina economizou seu tempo. Mas também repetiu um erro histórico.
Esse é o ponto de partida de uma revisão sistemática conduzida por Martinez-Martin e colegas (2025) sobre bias em modelos de linguagem aplicados à medicina. O estudo analisou 24 artigos científicos que testaram Large Language Models (LLMs) usados para apoiar diagnósticos, redigir relatórios, fazer recomendações clínicas e estruturar dados hospitalares.
O resultado: 92% dos estudos identificaram algum tipo de viés relevante. A maioria envolvia gênero, raça e etnia.
Em outras palavras, o que parecia ser um avanço tecnológico começa a se revelar um espelho, um reflexo estatístico das desigualdades e distorções que sempre existiram no cuidado médico humano.
Não é só a arte que imita a vida. Aparentemente, a tecnologia também!
O velho preconceito, agora em código
A medicina sempre teve um problema com o viés. E não por falta de ética, mas por excesso de humanidade.
O julgamento clínico depende da experiência acumulada, mas também da bagagem emocional e cultural de quem o exerce. O problema é que, historicamente, essa bagagem foi predominantemente masculina, branca e ocidental. As consequências são conhecidas: subdiagnóstico em mulheres, atraso em diagnósticos de pessoas negras, interpretações enviesadas sobre obesidade, dor, adesão a tratamento, pobreza.
Os pesquisadores chamam isso de viés explícito quando é consciente (o médico sabe o que pensa) e viés implícito quando é involuntário, automático, quase invisível.
Agora, multiplique esse comportamento por milhões de registros hospitalares, planilhas, artigos, históricos e relatórios. Essa massa de dados é o que treina as IAs médicas.
Logo, o problema não é se haverá viés — mas qual deles será amplificado.
Funciona assim: um LLM aprende por repetição. Ele não “entende” linguagem, ele prediz. Com base em trilhões de exemplos textuais, ele calcula o que, estatisticamente, vem depois.
Se nas bases de dados médicas há 100 descrições de sintomas cardíacos em homens e apenas 20 em mulheres, o modelo vai aprender que o coração feminino é uma anomalia estatística. Se há registros que historicamente associam dor abdominal feminina a causas psicológicas, ele vai repetir o padrão. Se o texto médico tradicional descreve a população negra com terminologias datadas, ele vai reproduzir essa linguagem.
Como mostram Martinez-Martin e colegas, 94% dos LLMs testados apresentaram vieses de gênero, 91% de raça ou etnia, e 100% mostraram distorções ligadas à idade, cultura ou classe social.
A IA, portanto, não inventa o preconceito. Ela o sistematiza e o pior, ela o podem amplificar como nunca antes.
A tentação da eficiência
A ironia é que tudo isso nasce de uma boa intenção: aliviar a sobrecarga do sistema de saúde. Hospitais estão lotados, equipes reduzidas, e médicos exaustos. Em tese, o uso de LLMs seria a solução: menos burocracia, mais tempo para o paciente.
O problema é o mesmo de qualquer ferramenta de automação cognitiva — ela funciona tão bem que é fácil parar de pensar.
O estudo destaca o risco de “automatização acrítica”: o médico começa usando a IA como suporte, mas logo delega tarefas decisivas (a redação de um relatório, o resumo de um caso, a sugestão de um exame). No começo, é prático. Depois, é rotina. E de repente, o diagnóstico vem pronto, com todos os vícios embutidos, envoltos em um texto gramaticalmente impecável.
Os vieses surgem em duas etapas principais:
Treinamento: bases de dados incompletas, desbalanceadas ou enviesadas;
Modelagem: estruturas algorítmicas que reforçam padrões majoritários e reduzem a representatividade de minorias.
Um exemplo citado no estudo é quase didático: modelos treinados com registros de triagem hospitalar dos EUA aprendem a associar a variável “race = Black” com menores taxas de encaminhamento para exames de imagem avançados. O modelo, sem saber o que é racismo, apenas replica o padrão.
Ou seja, o viés humano vira viés computacional, e passa a parecer objetivo.
Agora, é preciso ser claro: o artigo de Martinez-Martin é rigoroso e incômodo. Ele não acusa a IA de preconceito — acusa nós de termos exportado o preconceito para dentro dela.
A metodologia seguiu o protocolo PRISMA, para garantir transparência e replicabilidade, e utilizou a JBI Critical Appraisal Checklist para avaliar a qualidade dos estudos. Mesmo com bons índices metodológicos, o panorama é preocupante: falta de diversidade nos dados, ausência de validação cruzada, falhas de interpretação estatística e, sobretudo, escassez de medidas eficazes de mitigação - esse último pode sim, ser um problema que também é tecnológico, mas esse é assunto pra outro artigo.
Enfim, a consequência prática é clara: o mesmo erro humano que antes era local, isolado, agora escala globalmente, disfarçado de precisão algorítmica.
Corrigir a máquina exige corrigir o humano
Os autores listam estratégias de mitigação: diversificar bases de dados, usar algoritmos de debiasing, criar equipes de desenvolvimento plurais, revisar manualmente os resultados e manter sempre o elemento humano como instância crítica.
Mas o ponto central é filosófico: nenhuma IA será mais justa do que o mundo que a alimenta.
A tecnologia não inventa desigualdades — apenas as reorganiza em linguagem matemática.
Há uma frase que poderia resumir todo o estudo:
“The problem is not bias in AI, but bias without supervision.”
O erro (hoje) não é a IA errar, é o médico parar de conferir. Na esperança de que também ele ultrapasse seus preconceitos.
A partir do momento em que a automação se torna sinônimo de confiança, o viés se institucionaliza. E não há código de ética capaz de reparar o que se torna estrutural. Inclusive, nunca é demais dizer, também podemos começar a pensar em contar IAs especialistas em debiasing, ou seja, IAs fiscais de vieses de preconceito e confirmação de preconceito, já temos dados e padrões claros para alimentar um sistema desses. Pensei em "debIAsing". É um bom nome.
Por isso, o estudo insiste: o uso responsável de IA em medicina não depende apenas de regulamentação técnica, mas de uma cultura de vigilância cognitiva. Ou, em termos mais diretos: continuar duvidando.
A medicina é, por natureza, uma prática da dúvida. Mas estamos atravessando um momento em que a dúvida foi substituída pela pressa: LLMs são treinados para maximizar eficiência linguística. A medicina, no entanto, depende da demora da escuta. São princípios em choque.
E talvez o maior risco não seja o algoritmo errar, mas o médico perder a paciência de desconfiar dele.
Os autores do estudo encerram com uma conclusão tão simples quanto contundente:
“A responsabilidade final é intransferivelmente humana.”
A IA pode escrever relatórios, sugerir tratamentos, prever riscos, mas só o médico pode responder por uma vida. Será que vamos conseguir segurar assim por muito tempo?
E talvez esse seja o ponto mais importante de toda essa discussão: o problema da IA em medicina não é tecnológico, é epistemológico. Porque o conhecimento clínico não é apenas informação, é interpretação. E interpretação exige contexto, experiência, hesitação, erro, correção, empatia.
Coisas que nenhum modelo sabe simular por completo. Ainda.
A cena inicial volta à cabeça. A paciente continua sentindo dor. O relatório continua errado. Mas agora, o médico sabe que a pressa dele é parte do problema.
Ele apaga a recomendação da máquina, digita outra, mais cuidadosa, mais lenta. E percebe que o tempo que perdeu talvez tenha sido o único momento de verdade daquele turno inteiro.
Porque no fim, não é o algoritmo que precisa de mais dados: é o humano que precisa de mais discernimento.



