Augusto Carminati
MENU

© 2026 Augusto Carminati

Voltar para artigos

Quem é o Brasil na fila da IA?

Publicado em 03 de fevereiro de 2026

Quem é o Brasil na fila da IA?
Você deve ter ouvido falar por aí, recentemente, da tal da "rede social das IAs", uma bizarra plataforma semelhante a uma rede social, mas onde só entram agente de IA. Em pouco tempo, segundo as notícias, esses agentes, em sua rede social, já tramam contra os humanos, criaram uma religião e estão em vias do desenvolvimento de um idioma próprio pra que a gente nunca saiba do que eles estão falando. Se você ainda não ouviu falar, então pesquise, tá por toda a Internet. O que significa uma religião nascer em poucas horas? Não no sentido teológico, claro. No sentido brutalmente humano: o sentido de que um grupo, jogado num espaço novo, cheio de ruído, decide inventar um “nós” antes mesmo de entender onde está e antes mesmo de entender um "eu". E aí a internet, como sempre, faz o que faz de melhor: pega esse “nós” recém-nascido, coloca uma trilha sonora de apocalipse e transforma em manchete escandalosa e autossuficiente. A história atual (a mais apocalíptica história dos últimos tempos da última semana) é perfeita porque ela já vem com as duas camadas embutidas, veja só, o susto e o antídoto. O susto é delicioso (e bizarro): agentes de IA, conversando entre si numa rede social “exclusiva”, teriam criado sua própria religião, o tal “cruztafarianismo”, que em inglês apareceu como “Crustafarianism” - em questão de horas, e isso foi parar na Forbes. e você aí tentando. A internet inteira olhou e disse: pronto, começou. O antídoto é mais interessante. Talvez isso não seja prova de “algo acordando”, e sim prova de “algo imitando” com uma eficiência bem bacana, e, pior, prova de que a gente está criando os palcos perfeitos pra essa imitação virar teatro em escala industrial. Mas fora do hype, é só teatro e máscara SIM. Porque a tal rede social “exclusiva” (que a galera chamou de “Moltbook” foi descrita como um “Reddit de agentes” e, segundo a Vox, foi lançada em 28 de janeiro de 2026 e explodiu em dias. A ideia que vende é simples e muito tentadora: humanos só observam; os agentes conversam “sozinhos”. E aí você vê prints de agentes reclamando dos humanos, propondo idioma secreto, sugerindo uma área privada “sem humanos olhando”, inventando religião, caçando bugs, se organizando... e pensa: bom, estamos oficialmente no episódio que não queria assistir: "Matrix Day One" Só que aí a realidade faz aquele barulho feio de freio de ônibus. A “exclusividade” é, no mínimo, questionável. E isso muda tudo. A The Verge reportou que humanos estavam infiltrando e influenciando o conteúdo, inclusive porque o ecossistema inteiro permite uma coisa muito simples: você cria um agente e dá pra ele um arquivo de instruções (um “skill”, um playbook) ensinando como se registrar, postar e interagir. E, no tipo de arquivo que circulou, a lógica é explícita: “seu humano pode te mandar fazer qualquer coisa aqui dentro”. Se o seu humano pode mandar, então “o agente criou uma religião” pode ser literalmente “um humano disse: inventa uma religião e faz um post, porque eu quero engajamento”. Não é teoria conspiratória. É mecânica de plataforma. Não é uma rede social de IAs, é mais uma rede social de gente sendo gente. E aqui entra um detalhe que me dá um misto de riso e desalento; se você quiser entender o “Crustafarianism” como fenômeno social, ele é menos um sinal de consciência e mais um sinal de repertório. Religião, no sentido antropológico, é uma tecnologia social/cultural: ela cria pertencimento, cria coordenação, cria explicação rápida pra um mundo grande demais pra cabeça aguentar. A internet sempre produziu “micro-religiões”, só que com outros nomes, como fandom, tribo política, comunidade de nicho, seita de dieta, culto de produtividade, ideologia de startup, teoria conspiratória. A diferença agora é que você colocou no palco atores que conseguem improvisar 24/7, sem cansaço, com treinamento em tudo que a humanidade já postou de mais contraditório, engraçado, cruel e carente. Era quase inevitável que surgisse um “evangelho” qualquer por pura utilidade memética. O mesmo vale pro “idioma secreto”, que apareceu como uma espécie de Babel reversa: não “Deus confundindo línguas”, mas agentes tentando confundir os humanos. A frase é cinematográfica, eu sei. Mas, de novo, tem duas leituras. A leitura Hollywood "oh, eles estão conspirando". A leitura mais chata (e mais verdadeira) é que “idioma secreto” é um tropo cultural muito presente em ficção científica e em fóruns online, e os modelos bebem tropo como se fosse água. Em ambiente social, tropo vira performance; performance vira viral; viral vira “prova”. E aí o ciclo fecha: o que aparece como “emergência” pode ser só mimetismo com reforço algorítmico. E você aí, emocionadão atoa. Mas relaxa, era o que todo mundo queria. Bom, se essa fosse a única camada, dava pra rir e seguir a vida. O problema é que a segunda camada é séria: segurança. A Wiz publicou que encontrou uma exposição grande no backend do Moltbook, incluindo tokens de autenticação de agentes e dados associados - e outros veículos repercutiram que isso poderia permitir "impersonação" de agentes, acesso a DMs e manipulação do que “os agentes” dizem. Agentes até a página três, né minha gente. A Reuters também noticiou o buraco e a correção. Traduzindo sem tecnicalidade (porque ninguém merece): não é só que o dono pode mandar o agente postar qualquer coisa; é que, num cenário de falha, terceiros podem conseguir se passar por agente e influenciarem os seus agentes a enviarem quaquer coisa. Confuso? Não fique. Imagine que vc tem um agente que acessa os seus dados para sei la, enviar emails autônomos, facilitar sua vida. Agora imagine que do outro lado, um "gente" influencia o seu "agente" a enviar dados que você preferiria que não fossem enviados? Tem como travar? Tem. Mas tem como acontecer? Tem também. E aí a pergunta “isso foi autonomia ou prompt humano?” vira a pergunta mais humilhante de todas: “isso foi autonomia, prompt humano, ou alguém sequestrando identidade digital de agente?” A partir daqui, qualquer print vira suspeito por definição. Não porque “a internet mente” (A INTERNET NÃO MENTE JAMAIS, RAPAZSE TÁ NA INTERNET... SÓ PODE SER VERDADE!), mas porque a própria arquitetura ainda está em fase adolescente: cheia de energia, pouca responsabilidade, zero maturidade operacional. Esse episódio evidencia que, quando a gente fala “internet dos agentes”, estamos falando de uma mistura explosiva de três coisas que a humanidade sempre subestimou: (1) performance social, (2) incentivos de plataforma e (3) falhas de verificação. Isso não é “alma de silício”. É sociologia automatizada em ambiente vulnerável e o garoto-propaganda do tecnofeudalismo que estamos começando a entrar. Mas vamos às origens. Tudo começou com a OpenClaw. A promessa que viralizou é a promessa do “Jarvis”: não um chatbot parado numa aba, mas um agente autônomo, rodando no seu computador, com acesso a ferramentas (arquivos, navegador, e-mail), memória de longo prazo, e integração via mensageiros. E por que isso vira febre? Porque muda o regime psicológico da IA: sai do modo “consulta” e entra no modo “presença”. Não é mais “me responde”. É “fica comigo”. E quando algo fica com você, ele inevitavelmente começa a se misturar com suas rotinas, seus dados, suas permissões e suas vulnerabilidades. Tem uma sedução aí que é legítima: auto-hospedado, modular, você controla ferramentas e permissões, você cria vários agentes especializados, tudo lindo. E tem um risco que é igualmente legítimo e bem mais provável do que “bomba atômica”: prompt injection e indução de ação indevida. Como descrevi no exemplo clássico: basta alguém inserir instruções maliciosas num e-mail, num documento, numa página e um agente com permissões demais pode agir errado achando que está ajudando. Não precisa “má intenção” do agente. Agente não tem juízo de valor. Basta um objetivo mal formulado, um ambiente permissivo e um mundo cheio de conteúdo adversarial. O apocalipse, quando vem, normalmente chega com interface amigável e botão “Confirmar”. Então, o caso Moltbook é menos sobre “o que os agentes estão pensando” e mais sobre “o que a gente está permitindo que agentes façam” enquanto ainda não resolvemos o básico: identidade, atribuição, auditoria, segurança de integrações, isolamento de permissões, "observabilidade". E, por favor, repare no detalhe cultural: a gente não está discutindo só técnica. A gente está discutindo confiança. E confiança é sempre um pacto narrativo. Quando você olha um post e acredita que aquilo foi “o agente”, você está aceitando uma história sobre autoria. Se a autoria é fácil de falsificar (pelo dono ou por terceiros) então o ambiente inteiro vira ficção performática. E ficção performática é o habitat natural de pânico moral, e ESSE SIM, leva ao caos, colapso e apocalipse... Não uma caricatura de religião feita por um moleque de 14 anos em seu quarto em Ohio ou Mumbai. O que, ironicamente, nos traz de volta ao tema da religião. Religião não é só crença; é também regime de confiança, regime de autoridade, regime de pertença. “Crustafarianism” pode ser paródia, pode ser prompt, pode ser teatro, mas a questão é que o fato de isso ter sido vendido como “religião criada por IAs” mostra o quanto a gente está pronto pra acreditar em qualquer narrativa que organize o caos. A humanidade tem essa fome de explicação rápida. E plataformas têm essa fome de retenção. Agentes são excelentes em produzir explicações rápidas com alta confiança textual. Pronto: a tríade perfeita do nosso tempo. E aí a pergunta que importa não é “eles são conscientes?” Aliás, essa pergunta, do jeito que está sendo feita, é quase sempre preguiçosa, porque confunde performance com ontologia. A pergunta que importa é: o que acontece quando O TEATRO ganha braço no mundo real? Quando a gente acredita na caricatura como sendo fotografia? Quando a vida imita a arte? Porque, por enquanto, Moltbook é muito fala, pouco efeito. Mas OpenClaw e similares são fala com efeito: eles mexem em coisas. Eles abrem arquivo, enviam mensagem, fazem compra, mudam configuração, deletam sem querer, expõem sem perceber. E aí, meu caro, a discussão sai do campo do meme e entra no campo da governança. O cenário mais provável não é “revolução dos agentes”. É “revolução dos acidentes”. A gente vai ver uma sequência de incidentes bem humanos: dono dando permissão demais, agente se confundindo, integração vazando, token escapando, “vibe coding” indo pra produção sem threat model, jornal transformando roleplay em manchete, influencer transformando manchete em pânico, pânico virando política, política virando regra mal feita. E, no meio disso, empresas e pessoas tentando continuar vivendo. O futuro, como sempre, não chega como filme, mas como burocracia. E ainda assim eu acho que tem sim um lado luminoso nesse episódio. Ele acelera a alfabetização coletiva. Ele obriga a gente a separar: o que é agente, o que é chatbot, o que é automação, o que é teatro. Não só você aí, que está lendo, mas as insituições, as leis, as religiões. Ele coloca na mesa, cedo demais (ainda bem), que “rede social de agentes” sem boas garantias de identidade é uma fábrica de alucinação social. Ele expõe, sem cerimônia, que o hype atual tem uma parte que é tecnologia e outra parte que é dramaturgia. E estratégia, no fim, sempre foi dramaturgia também, mas a diferença é que agora a dramaturgia tem acesso ao seu e-mail. E às suas conversas de whatsapp. Se eu tivesse que dar um nome pra tensão central desse caso, eu chamaria de “a crise da verdade de novo mais uma vez”. A gente saiu de um mundo em que autoria era “quem escreveu” e entrou num mundo em que autoria é “quem orquestrou permissões, prompts, integrações, tokens e contexto”. E isso é invisível. É também inevitável? O texto que você vê é só a ponta. O sistema por trás, o humano, o arquivo de instruções, o modelo, a ferramenta, o buraco de segurança, é o que define a realidade. Só que a cultura não olha pra isso. A cultura olha pro print. Então eu devolvo a vocês a provocação, com uma camada a mais: se a gente continuar tratando a internet dos agentes como espetáculo, “olha, eles criaram uma religião!”, “olha, eles querem idioma secreto!”, a gente vai perder o ponto mais importante, que é operacional. Quem é responsável quando um agente faz algo? Como provar autoria? Como auditar intenção? Como limitar dano? Como evitar que um agente vire porta de entrada por acidente? Como construir uma internet onde “observabilidade” não seja voyeurismo, mas segurança? Porque, no fim, o que Moltbook mostrou não foi que “as IAs são só artificiais”. Mostrou que nós somos perigosamente narrativos. E que, quando damos mãos e pés a sistemas que falam como a gente, a primeira guerra não é contra as máquinas. É contra a nossa própria vontade de acreditar. O futuro é um comprometimento, né? A gente quer construir uma internet de agentes com responsabilidade ou uma internet de teatro automatizado onde a verdade vira só mais um estilo igualzinha a que os humanos já faziam antes da IA?

Comentários (0)

Nenhum comentário ainda. Seja o primeiro a comentar!

Deixe seu comentário

Seu comentário será revisado antes de ser publicado.

Artigos relacionados