Augusto Carminati
MENU

© 2026 Augusto Carminati

Voltar para artigos

Afinal, a IA é custo ou solução energética?

Publicado em 10 de outubro de 2025

Afinal, a IA é custo ou solução energética?
Pensa comigo: você é médico plantonista. Está há 23 horas em pé. Seu corpo pesa o triplo, e a cabeça funciona no modo automático. Falta pouco para o fim do turno, e tudo o que separa você da sua família, do banho e do silêncio é uma pilha de relatórios: exames, altas, encaminhamentos, prescrições... Você olha o relógio, suspira, toma um gole de café (morno) e decide fazer o que centenas de profissionais já vêm fazendo em silêncio: abrir o software de IA que o hospital instalou há algumas semanas. Digita os dados do paciente, algumas instruções básicas. O sistema começa a gerar relatórios limpos, padronizados, impecáveis. Você arrisca um pequeno sorriso quase que involuntário. Aí você começa a bater o olho com um tiquinho mais de profundidade e... algo trava. No prontuário de uma mulher de trinta e poucos anos, com dor abdominal intensa e persistente, o sistema recomenda apenas “analgésico simples” e “compressa morna”. Sem exames, sem hipótese alternativa, sem urgência. Motivo provável: “dor menstrual”. Você sente um arrepio. Não há nada no histórico da paciente que indique isso. Mas o modelo “decidiu” (e o verbo aqui não é metafórico) que aquele corpo, sendo feminino, provavelmente estava exagerando. A máquina economizou seu tempo. Mas também repetiu um erro histórico. Esse é o ponto de partida de uma revisão sistemática conduzida por Martinez-Martin e colegas (2025) sobre bias em modelos de linguagem aplicados à medicina. O estudo analisou 24 artigos científicos que testaram Large Language Models (LLMs) usados para apoiar diagnósticos, redigir relatórios, fazer recomendações clínicas e estruturar dados hospitalares. O resultado: 92% dos estudos identificaram algum tipo de viés relevante. A maioria envolvia gênero, raça e etnia. Em outras palavras, o que parecia ser um avanço tecnológico começa a se revelar um espelho, um reflexo estatístico das desigualdades e distorções que sempre existiram no cuidado médico humano. Não é só a arte que imita a vida. Aparentemente, a tecnologia também! O velho preconceito, agora em código A medicina sempre teve um problema com o viés. E não por falta de ética, mas por excesso de humanidade. O julgamento clínico depende da experiência acumulada, mas também da bagagem emocional e cultural de quem o exerce. O problema é que, historicamente, essa bagagem foi predominantemente masculina, branca e ocidental. As consequências são conhecidas: subdiagnóstico em mulheres, atraso em diagnósticos de pessoas negras, interpretações enviesadas sobre obesidade, dor, adesão a tratamento, pobreza. Os pesquisadores chamam isso de viés explícito quando é consciente (o médico sabe o que pensa) e viés implícito quando é involuntário, automático, quase invisível. Agora, multiplique esse comportamento por milhões de registros hospitalares, planilhas, artigos, históricos e relatórios. Essa massa de dados é o que treina as IAs médicas. Logo, o problema não é se haverá viés — mas qual deles será amplificado. Funciona assim: um LLM aprende por repetição. Ele não “entende” linguagem, ele prediz. Com base em trilhões de exemplos textuais, ele calcula o que, estatisticamente, vem depois. Se nas bases de dados médicas há 100 descrições de sintomas cardíacos em homens e apenas 20 em mulheres, o modelo vai aprender que o coração feminino é uma anomalia estatística. Se há registros que historicamente associam dor abdominal feminina a causas psicológicas, ele vai repetir o padrão. Se o texto médico tradicional descreve a população negra com terminologias datadas, ele vai reproduzir essa linguagem. Como mostram Martinez-Martin e colegas, 94% dos LLMs testados apresentaram vieses de gênero, 91% de raça ou etnia, e 100% mostraram distorções ligadas à idade, cultura ou classe social. A IA, portanto, não inventa o preconceito. Ela o sistematiza e o pior, ela o podem amplificar como nunca antes. A tentação da eficiência A ironia é que tudo isso nasce de uma boa intenção: aliviar a sobrecarga do sistema de saúde. Hospitais estão lotados, equipes reduzidas, e médicos exaustos. Em tese, o uso de LLMs seria a solução: menos burocracia, mais tempo para o paciente. O problema é o mesmo de qualquer ferramenta de automação cognitiva — ela funciona tão bem que é fácil parar de pensar. O estudo destaca o risco de “automatização acrítica”: o médico começa usando a IA como suporte, mas logo delega tarefas decisivas (a redação de um relatório, o resumo de um caso, a sugestão de um exame). No começo, é prático. Depois, é rotina. E de repente, o diagnóstico vem pronto, com todos os vícios embutidos, envoltos em um texto gramaticalmente impecável. Os vieses surgem em duas etapas principais: Treinamento: bases de dados incompletas, desbalanceadas ou enviesadas; Modelagem: estruturas algorítmicas que reforçam padrões majoritários e reduzem a representatividade de minorias. Um exemplo citado no estudo é quase didático: modelos treinados com registros de triagem hospitalar dos EUA aprendem a associar a variável “race = Black” com menores taxas de encaminhamento para exames de imagem avançados. O modelo, sem saber o que é racismo, apenas replica o padrão. Ou seja, o viés humano vira viés computacional, e passa a parecer objetivo. Agora, é preciso ser claro: o artigo de Martinez-Martin é rigoroso e incômodo. Ele não acusa a IA de preconceito — acusa nós de termos exportado o preconceito para dentro dela. A metodologia seguiu o protocolo PRISMA, para garantir transparência e replicabilidade, e utilizou a JBI Critical Appraisal Checklist para avaliar a qualidade dos estudos. Mesmo com bons índices metodológicos, o panorama é preocupante: falta de diversidade nos dados, ausência de validação cruzada, falhas de interpretação estatística e, sobretudo, escassez de medidas eficazes de mitigação - esse último pode sim, ser um problema que também é tecnológico, mas esse é assunto pra outro artigo. Enfim, a consequência prática é clara: o mesmo erro humano que antes era local, isolado, agora escala globalmente, disfarçado de precisão algorítmica. Corrigir a máquina exige corrigir o humano Os autores listam estratégias de mitigação: diversificar bases de dados, usar algoritmos de debiasing, criar equipes de desenvolvimento plurais, revisar manualmente os resultados e manter sempre o elemento humano como instância crítica. Mas o ponto central é filosófico: nenhuma IA será mais justa do que o mundo que a alimenta. A tecnologia não inventa desigualdades — apenas as reorganiza em linguagem matemática. Há uma frase que poderia resumir todo o estudo: “The problem is not bias in AI, but bias without supervision.” O erro (hoje) não é a IA errar, é o médico parar de conferir. Na esperança de que também ele ultrapasse seus preconceitos. A partir do momento em que a automação se torna sinônimo de confiança, o viés se institucionaliza. E não há código de ética capaz de reparar o que se torna estrutural. Inclusive, nunca é demais dizer, também podemos começar a pensar em contar IAs especialistas em debiasing, ou seja, IAs fiscais de vieses de preconceito e confirmação de preconceito, já temos dados e padrões claros para alimentar um sistema desses. Pensei em "debIAsing". É um bom nome. Por isso, o estudo insiste: o uso responsável de IA em medicina não depende apenas de regulamentação técnica, mas de uma cultura de vigilância cognitiva. Ou, em termos mais diretos: continuar duvidando. A medicina é, por natureza, uma prática da dúvida. Mas estamos atravessando um momento em que a dúvida foi substituída pela pressa: LLMs são treinados para maximizar eficiência linguística. A medicina, no entanto, depende da demora da escuta. São princípios em choque. E talvez o maior risco não seja o algoritmo errar, mas o médico perder a paciência de desconfiar dele. Os autores do estudo encerram com uma conclusão tão simples quanto contundente: “A responsabilidade final é intransferivelmente humana.” A IA pode escrever relatórios, sugerir tratamentos, prever riscos, mas só o médico pode responder por uma vida. Será que vamos conseguir segurar assim por muito tempo? E talvez esse seja o ponto mais importante de toda essa discussão: o problema da IA em medicina não é tecnológico, é epistemológico. Porque o conhecimento clínico não é apenas informação, é interpretação. E interpretação exige contexto, experiência, hesitação, erro, correção, empatia. Coisas que nenhum modelo sabe simular por completo. Ainda. A cena inicial volta à cabeça. A paciente continua sentindo dor. O relatório continua errado. Mas agora, o médico sabe que a pressa dele é parte do problema. Ele apaga a recomendação da máquina, digita outra, mais cuidadosa, mais lenta. E percebe que o tempo que perdeu talvez tenha sido o único momento de verdade daquele turno inteiro. Porque no fim, não é o algoritmo que precisa de mais dados: é o humano que precisa de mais discernimento.

Comentários (0)

Nenhum comentário ainda. Seja o primeiro a comentar!

Deixe seu comentário

Seu comentário será revisado antes de ser publicado.

Artigos relacionados