Seja a fogueira
Publicado em 18 de agosto de 2025

0. Contexto:
Todo mundo sente que “algo” acelerou ao ponto de as notícias de ontem parecerem de outra encarnação. Pode conversar com qualquer um, no ponto do ônibus, no elevador, na rua, na chuva, na fazenda... E não é impressão sua. O ciclo da obsolescência implodiu: horizontes que antes se sucediam; presente (H1), transição (H2), futuro (H3), colapsaram uns sobre os outros.
É o que temos chamado de Colapso dos Horizontes: quando o amanhã já é sempre hoje e o planejamento sequencial vira caricatura de si mesmo. O risco? Transformar estratégia em reatividade e especulação em luxo, justamente quando mais precisamos dela.
Dito isso, vamos amarrar quatro frentes: (1) dados de automação e a obsolescência de formações; (2) limites subjetivos e intersubjetivos da IA; (3) por que “fluência em futuros” supera “operar ferramenta X”; (4) como reprogramar educação, trabalho e governança para um regime de mudança sem intervalo. Tudo em uma única linha de raciocínio.
Vamos com a gente que tudo fará sentido.
1. Tudo que é automatizável, automatizado será (e mais rápido do que a grade do seu plano de curso)
As grandes consultorias e fóruns convergem no essencial: a automação avançará sobre uma fatia substancial das atividades humanas na década. McKinsey estima que 15% das atividades globais podem ser automatizadas até 2030, com 400–800 milhões de pessoas potencialmente deslocadas e 75–375 milhões precisando mudar de ocupação. Em 60% das organizações, ao menos 30% das tarefas já são automatizáveis com tecnologias existentes. O Fórum Econômico Mundial projeta, até 2027, 83 milhões de postos eliminados e 69 milhões criados, saldo líquido de –14 milhões. Outras leituras, como as sumarizadas no relatório “Navegando o Tsunami da IA”, trazem recortes mais otimistas em janelas e metodologias diferentes (ex.: +78 milhões líquidos até 2030) e ganhos de produtividade próximos de 15% (Goldman Sachs), com desemprego apenas temporariamente impactado em meio ponto percentual.
O ponto, aqui, não é a disputa aritmética, mas a qualidade do movimento: tende a se automatizar tarefa, não “emprego” como unidade monolítica; e a obsolescência se concentra em operações padronizáveis, especialmente onde há repetição, estrutura, previsibilidade e bom lastro de dados. A consequência sistêmica: cursos instrumentais com um ano de duração, focados em operar “a ferramenta do trimestre”. Não só têm prazo de validade curtíssimo, como o prazo é menor que a grade.
O caso “engenheiro de prompt” é didático: há três anos, profissão do futuro; hoje, competência-embutida em papéis mais amplos (Engenharia de IA, MLOps, Pesquisa Aplicada), interfaces que abstraem prompting, IAs especialista em em fazer prompt, templates públicos e modelos que inferem intenção com menos fricção. A habilidade permanece; a carreira dedicada, não.
Um precedente histórico útil (e dolorido)
Nos anos 1990/2000, “Operador de Micro” e “Pacote Office” lotavam salas. Quando a alfabetização digital básica foi absorvida pela educação formal e pelo cotidiano, esses cursos perderam tração; redes como Microlins e Microcamp descontinuaram módulos legados. O fim do discador da AOL, previsto para 30/09/2025, com menos de 300 mil usuários remanescentes em um oceano de banda larga; é a alegoria perfeita de como um habitat tecnológico se torna relíquia em poucas décadas, e cada vez menos tempo. O paralelo com treinamentos de IA puramente operacionais é direto: tenderão a desaparecer antes do certificado ficar amarelado.
2. O que a IA não pode (e talvez não deva) fazer
As quatro fontes convergem: a IA atual simula linguagem, prevê padrões e compõe respostas com notável competência estatística; mas não sente (subjetividade fenomenal) nem co-constrói mundo no entre (intersubjetividade). No livro Antropousia, do nosso CEO, Augusto Carminati há a proposta de que toda percepção humana se dá em três camadas; objetiva, subjetiva e intersubjetiva, e que é nessa trindade-una que se funda o “algoritmo da humanidade”. A IA, por ora, arranha a objetiva, emula sinais da subjetiva e está muito distante de qualquer intersubjetividade genuína.
Subjetividade: o “como é” sentir
David Chalmers chamou de “problema difícil” a pergunta sobre "qualia", o “vermelho” como é vivido, não descrito. Modelos podem operar sobre descrições e aproximar comportamentos que nós interpretamos como indícios de sentir; mas isso é, no limite, uma performance.
O grande diretor Fernando Meirelles, em uma entrevista (em inglês) e falando sobre a língua, expressou que a palavra "mangueira" em português evoca sentimentos e memórias, especialmente relacionadas à sua mãe e à infância, enquanto "mango tree" em inglês é apenas uma árvore. Essa diferença, para ele, demonstra a riqueza e a profundidade da língua materna, algo que não se traduz facilmente para outros idiomas. Em outras palavras, Meirelles usa a comparação entre "mango tree" e "mangueira" para ilustrar como o termos apenas traduzidos são vazios de significado real. Em nossa cultura materna podem carregar um peso emocional, subjetivo, muito maior do que em uma cultura estrangeiro. "Mangueira" para ele, e para muitos brasileiros, não é apenas uma árvore, mas um símbolo de casa, família, e raízes.
Isso é ainda totalmente impossível para a IA, até porque ela aprenda substancialmente sob apenas um viés cultural, mas vai ser totalmente necessário para que ela se integre ao uso cotidiano no futuro. E mesmo sem ela, é totalmente necessário para que construamos cultura, conexões, sentido.
Ainda Antropousia, sustenta que um cérebro artificial pode, teoricamente, substituir funções de cérebro, mas não “as de uma mente”; e que basta a nossa atribuição de humanidade para reconhecermos subjetividade simulada, um efeito social real mesmo sem experiência interna real. Isso é crucial para pensar risco, regulação e design sociotécnico.
3. Por que cursos “de ferramenta” envelhecem (e o que colocar no lugar)
A aceleração tecnológica, a abstração da interface (copilots, automações, agentes), o barateamento de dados + compute e a convergência de camadas (digital/material/cultural) produzem um ambiente em que operações viram commodities. A gente vem argumentando que não basta “dominar tendências” ou “falar jargão”: o que falta é fluência cultural e temporal — isto é, operar nos cronoletos certos (o tempo interno da organização) e alinhar práticas com o ritmo real do contexto. Sem isso, viramos torres de Babel: muito discurso, pouca construção e nenhuma permeabilidade.
Traduzindo para prioridade de aprendizagem:
Meta-habilidades gerais: pensamento crítico, imaginação disciplinada, julgamento ético, empatia, negociação, liderança de ambiguidade, desenho de sistemas (não só prompts) são exemplos.
Transversalidade: transpor repertórios entre campos, recombinar.
Fluência em futuros: especular com método, prototipar com ética, governar incerteza.
Ou seja: menos curso de “apertar botão”; mais regime de antecipação. Não como “tendência”, mas como necessidade operacional: é mandatória uma governança antecipatória — estruturas, tempos e rituais que usam a incerteza e as projeções como matéria-prima.
4. Brasil, o paradoxo digital: entre a base faltante e a escassez avançada
Os paralelos históricos dos cursos de informática escondem um paradoxo brasileiro: enquanto quase metade do país não domina habilidades digitais básicas (como mover arquivos ou anexar e-mails), seguimos com déficit severo de profissionais de TI qualificados. E apenas 15% das escolas oferecem programação/robótica. A demanda por competências avançadas cresce enquanto a base fundacional permanece frágil, uma falha sistêmica no pipeline educacional.
Leitura prática: não é “voltar aos cursos de DOS”; é integrar letramento digital (e agora IA) como infraestrutura curricular transversal, desde cedo. E, ao mesmo tempo, elevar formação técnica avançada para suprir lacunas de engenharia, dados e segurança.
5) Ética prática e o erro estratégico dos cursos de IA
(ou: estamos estudando pelo avesso)
A pior estratégia de médio e longo prazo é treinar pessoas para aquilo que a IA já faz (ou fará melhor amanhã). É o que o Tiago Mattos tem dito, e nós também: estamos formando operadores de botões que vão desaparecer, não os operadores, mas os botões. O caminho é o inverso: ensinar o que permanecerá humano e definir com rigor o que a IA não deve fazer.
Três perguntas que devemos nos fazer:
É objetivo ou subjetivo/intersubjetivo? O que é objetivo, padronizável, de baixo contexto é velozmente automatizável. O que exige julgamento, valor, contexto vivo e negociação de sentido é totalmente humano ou muito menos velozmente automatizável.
Mesmo que a IA consiga, nós queremos que ela faça? Diagnóstico sem cuidado? Seleção de pessoas sem responsabilização? Decisão ética sem justificativa pública? > não deve.
Quem responde quando dá errado? Se a resposta não tem CPF, recentralize no humano.
Pense no uso de IA como uma "Curva de Laffer da automação": no eixo X, o percentual de uso da IA; no eixo Y, o valor gerado (qualidade, ROI, segurança, impacto social). Nos extremos, o retorno cai: 0% é burrice operacional, lento, caro, ineficiente; e 100% é horror! Resultado ruim, viés amplificado, colapso do cuidado, opacidade e responsabilidade evaporada. A excelência mora numa faixa elástica de coagência onde a IA drena fricção objetiva e os humanos governam julgamento, exceção, ética e significado: em geral, algo como 60–80% de automação para tarefas padronizáveis e de baixo risco, 20–40% quando há sensibilidade intersubjetiva ou implicação moral. É nessa crista que devemos investir tempo, energia, recursos e governança — definindo thresholds de confiança, regras claras de quando a IA fala baixo, quando é silenciada e quando o humano decide. Não se trata de achar um número mágico, mas de manter o cume com métricas que importam (qualidade, tempo de adaptação, risco evitado) e ensaios contínuos que recalibrem a dose; sem isso, a gravidade dos extremos nos puxa de volta para o desperdício de 0% ou para a irresponsabilidade de 100%.
Como separar cursos que valem dos descartáveis
Descartáveis (hype/analgésico/vaidade): “domínio da ferramenta X”, “truques de prompt”, “atalhos de automação”. São úteis agora (se muito), perecem logo.
Valem (investimento): competências não-automatizáveis e não-delegáveis:
Uma matriz simples para decidir o que ensinar (e o que automatizar)
IA PODE & DEVE > automatize sem culpa (contagem, reconciliação, triagem mecânica).
IA PODE & NÃO DEVE > curso em ética aplicada e governança (ex.: seleção de candidatos, triagem de crédito sensível, decisões clínicas críticas).
IA NÃO PODE > curso em subjetivo/intersubjetivo (negociação de sentido, liderança de ambiguidade, cuidado).
IA AINDA NÃO PODE (mas poderá) > curso em meta-habilidades para trocar de ferramenta sem trocar de cabeça.
Resumo honesto: fluência supera proficiências. Aprender “botão” alivia; aprender arquitetura de decisão resolve.
6) Fluência em futuros: o programa (e a cadência) que trocam diploma por direção
“Fluência em futuros” não é slogan: é a competência de moldar (não apenas prever), trazer o futuro para o presente com imaginação rigorosa, governança de incerteza e responsividade cultural. É o antídoto para a “singularidade especulativa” — quando a gente para de imaginar e terceiriza a estratégia.
Prioridade clara: fluência (meta-habilidades, cadências, governança) sempre supera proficiências de curto prazo. Cursos bons treinam a arquitetura do que é necessário aprender, não o botão da semana.
Estamos caindo no mesmo erro da RAF na Segunda Guerra ao mapear furos nos aviões que voltavam: reforçar onde tinham marcas parecia lógico, até perceberem (Wald) que o certo era blindar onde não havia furos — as áreas críticas que, quando atingidas, impediam o retorno. Com IA, estamos reforçando o que aparece (tutoriais do que ela já faz) em vez de proteger o que não aparece nos dashboards: julgamento, exceção, presença, cuidado, negociação de sentido, corpo. Se a IA é camada e o acesso virou ambiente, nossa blindagem deve ir para esses vazios — os pontos “sem furos” — porque é ali que um erro derruba o avião e é ali que se decide o valor que permanece.
7) Conclusão: onde vale pôr o corpo e o orçamento
Se continuarmos treinando gente para o que a IA já faz (ou fará amanhã), chegaremos sempre atrasados. O centro de gravidade do valor está no entre: no julgamento, na criação de sentido, na negociação de conflitos e nos limites que escolhemos impor a sistemas que não respondem por si. Como a IA virou camada e não “app”, o trabalho estratégico deixa de ser “apertar botão” e passa a ser governar coreografias humano-máquina com responsabilidade, métricas que importam e coragem de dizer “aqui não”.
Pense na Curva de Laffer da automação: 0% de IA é desperdício e lentidão; 100% é irresponsabilidade e resultado ruim. A excelência mora numa faixa elástica de co-agência, onde a IA elimina fricção objetiva e os humanos preservam o que é subjetivo e intersubjetivo: cuidado, sentido, exceção e ética. É nessa crista que devemos investir tempo, energia, orçamento e governança: thresholds de confiança, regras de escalonamento, logs explicáveis e o direito de silenciar a máquina quando a decisão exige pessoa.
Isso redefine o que é um “bom curso”. O que é operacional e padronizável vira manual e, em breve, API. O que permanece; ética aplicada, facilitação, decisão sob ambiguidade, narrativa estratégica, prototipagem encarnada, governança humano-IA, precisa de formação séria, com ensaios, não slides; com entregáveis, não certificados. Em termos simples: fluência supera proficiências.
Para fechar o ciclo, organizações que quiserem relevância precisam de governança e cadências de antecipação (sinais > cenários > teatro de decisões > ética aplicada) e de novas métricas: qualidade sob incerteza, tempo de adaptação, risco evitado, elasticidade cultural.
Não falta IA; falta direção. E eficiência sem direção é aceleração no escuro, um risco imenso.
Se é para deixar uma regra simples: pare de comprar certificados de obsolescência programada. Tudo o que a IA já faz (ou fará em semanas) tornará seu curso um rodapé antes de secar a tinta do diploma. O investimento inteligente está no oposto: estudar o que a IA não faz (e onde não deve entrar), porque é ali que vamos habitar e onde moram as profissões duradouras. Foque em meta-habilidades (julgamento, facilitação, decisão sob ambiguidade, criação de sentido, direção estética), transversalidade (conectar campos) e design de sistemas humano-IA (para orquestrar, não apertar botão). O resto é tooling de curto prazo: use quando útil, não confunda com formação. Embora entendamos o contrário, fluência supera proficiência. Sempre.



