Índice
5 min de leitura

Quatro Contextos Que Decidem Se a IA Vai Te Ajudar ou Desperdiçar Seu Tempo

Passei um fim de semana inteiro jogando mais de 100MB de PDFs num agente. A performance piorou. Só quando mapeei o que estava alimentando em quatro categorias é que entendi o porquê.

Passei um fim de semana inteiro processando PDFs que somavam mais de 100MB. A lógica parecia simples: quanto mais conhecimento eu jogasse no agente, melhor seria o resultado. Estava errado.

Depois de dias de frustração, desenhei um diagrama dividindo tudo o que eu vinha alimentando em quatro categorias. O problema ficou óbvio na hora. Volume nunca foi o problema. O tipo de contexto era.

O que o modelo já sabe trabalha contra você

LLMs terminam o treinamento com trilhões de tokens. Quando você cola no prompt informações que já fazem parte desse treinamento, esses tokens redundantes ocupam espaço na janela de contexto e dispersam a atenção do que realmente importa. O contexto que você adicionou para ajudar o modelo acaba limitando ele.

Testei isso diretamente. Encher prompts com sintaxe Python e padrões básicos de React fez o modelo entrar em conflito com o próprio treinamento, gerando outputs mais estranhos do que sem contexto nenhum. Empilhe informação redundante o suficiente e você obtém context rot: as respostas do modelo vão degradando progressivamente. A intuição de que “mais input gera output mais inteligente” é a armadilha mais perigosa em prompt engineering.

O contexto de ambiente é o único tipo que o modelo não consegue inferir

Estrutura de diretórios do projeto, convenções do time, schemas de APIs internas. Nada disso existe nos dados de treinamento, e o modelo não tem como raciocinar sobre isso sem input explícito. É aqui que contexto realmente justifica seu lugar.

O tooling em torno de captura de contexto de ambiente está evoluindo mais rápido do que qualquer outra área agora. Esforços de OCR de documentos acontecem simultaneamente em vários continentes: Upstage e Korea Deep Learning na Coreia, Mistral na França, Sarvam na Índia, Baidu, Zhipu, DeepSeek e até o Xiaohongshu na China. Voz, que costumava ser o meio mais volátil, também está sendo capturada. Ferramentas de notas de reunião como o Granola preservam conversas que antes desapareciam assim que a chamada encerrava. Typeless, Wispr Flow e Willow convertem pensamentos em texto em tempo real. Atividade no navegador, input visual ambiente, coisas que você olha sem prestar atenção: tudo isso já está virando contexto estruturado.

A mudança é clara: informações que antes evaporavam estão sendo convertidas em algo que os modelos podem usar.

A distância entre saber e executar é onde as pessoas se separam

Contexto de ambiente diz ao modelo o que existe. Skills dizem como fazer as coisas, em que ordem e com qual padrão de qualidade. Qualquer pessoa consegue armazenar e verificar conhecimento. Mas quando você adiciona execução estruturada, definindo sequências baseadas em raciocínio, o gap entre as pessoas começa a se abrir.

Uma boa definição de skill não é uma lista de instruções simples. Ela contém seis elementos: disciplina, definição de “pronto”, decomposição de tarefas, métodos de correção de defeitos, anti-padrões e adaptação ao ambiente. Jogar todas as tarefas numa só skill garante fracasso. Quebrar o trabalho em skills granulares e compô-las via arquivos de workflow como AGENTS.md é o que deixa os agentes se moverem com flexibilidade. Até anotações rasas no nível de dicas podem ser convertidas em skills na hora com ferramentas como /skill-creator.

A perspectiva de design importa mais aqui. Salvar arquivos intermediários, analisar antes de executar, definir critérios de verificação: essas decisões determinam se um agente vai ter sucesso ou falhar. Prefiro scripts a MCP, uma lição que aprendi no uso em produção, não na teoria. Skills ficam mais afiadas com o uso. Dê ao agente exemplos comparativos e ele otimiza a própria execução.

Preciso ser honesto: acertar o design de skills levou mais tempo do que eu esperava. Minhas primeiras tentativas eram largas demais (o agente ignorava metade das instruções) ou rígidas demais (não conseguia se adaptar a variações pequenas na tarefa). O ponto certo, específico o suficiente para guiar mas flexível o suficiente para dobrar, exigiu iteração real para encontrar.

Intenção e gosto explicam por que setups idênticos geram resultados diferentes

Em dez anos observando pessoas trabalharem, um padrão aparece toda hora. Coletar e verificar conhecimento é algo que todo mundo faz. Conhecimento geral é algo que a IA já detém em volume maior do que qualquer humano. Skills se acumulam com repetição. Mesmo assim, pessoas usando exatamente o mesmo modelo produzem resultados radicalmente diferentes.

Olhe para outputs de vibe coding. O trabalho de algumas pessoas provoca a reação “como você fez isso?”. O de outras gera silêncio. A diferença está entre quem aceita a estética padrão da IA e quem empurra em direção a uma visão específica. Capturar informação rapidamente e filtrá-la por uma intenção particular são duas capacidades completamente diferentes. A segunda exige considerar a perspectiva do público e o contexto completo ao redor, um tipo de pensamento de ordem superior.

O modelo não sabe o que você quer. Você precisa conseguir expressar isso. Por isso gosto pesa mais do que conhecimento na era da IA.

Quanto mais difícil automatizar, mais valioso é o humano por trás

Conhecimento geral já pertence à IA. Adicionar mais dele nos prompts ativamente prejudica. Contexto de ambiente está sendo capturado por ferramentas de OCR e voz em velocidade crescente. Skills podem ser construídas via repetição e estrutura, e depois delegadas a agentes. Intenção e gosto são a única categoria que resiste à automação por completo.

Reunir ferramentas e informações de IA importa. Mas a alavancagem real não está aí. Em vez de empilhar mais contexto nos prompts, o movimento melhor é saber com mais precisão o que você quer. Nesse jogo, o que vai diferenciar não é quanto você sabe, mas o quanto você consegue ver.

Assine a newsletter

Receba atualizações sobre meus projetos mais recentes, artigos e experimentos com IA e desenvolvimento web.