LangChain Dá aos Agentes de IA Controlo Sobre a Sua Própria Gestão de Memória
Terrill Dicki 12 de mar. de 2026 01:55
O Deep Agents SDK da LangChain permite agora que os modelos de IA decidam quando comprimir as suas janelas de contexto, reduzindo a intervenção manual em fluxos de trabalho de agentes de longa duração.
A LangChain lançou uma atualização ao seu Deep Agents SDK que entrega aos modelos de IA as chaves da sua própria gestão de memória. A nova funcionalidade, anunciada a 11 de março de 2026, permite aos agentes acionar autonomamente a compressão de contexto em vez de depender de limites fixos de tokens ou comandos manuais do utilizador.
A mudança aborda um problema persistente no desenvolvimento de agentes: as janelas de contexto enchem-se em alturas inconvenientes. Os sistemas atuais tipicamente compactam a memória ao atingir 85% do limite de contexto de um modelo—o que pode acontecer a meio de uma refatoração ou durante uma sessão complexa de depuração. Um mau timing leva à perda de contexto e fluxos de trabalho interrompidos.
Porque é que o Timing É Importante
A compressão de contexto não é nova. A técnica substitui mensagens mais antigas por resumos condensados para manter os agentes dentro dos seus limites de tokens. Mas quando se comprime importa tanto quanto se se comprime.
A implementação da LangChain identifica vários momentos ótimos de compressão: limites de tarefas quando os utilizadores mudam de foco, após extrair conclusões de grandes contextos de investigação, ou antes de iniciar edições longas de múltiplos ficheiros. O agente essencialmente aprende a arrumar a casa antes de começar trabalho confuso em vez de se desesperar quando fica sem espaço.
A investigação da Factory AI publicada em dezembro de 2024 suporta esta abordagem. A sua análise concluiu que a sumarização estruturada—preservando a continuidade do contexto em vez de truncagem agressiva—provou ser crítica para tarefas complexas de agentes como depuração. Os agentes que mantiveram a estrutura do fluxo de trabalho superaram significativamente aqueles que usaram métodos simples de corte.
Implementação Técnica
A ferramenta é fornecida como middleware para o Deep Agents SDK (Python) e integra-se com o CLI existente. Os programadores adicionam-na à sua configuração de agente:
O sistema retém 10% do contexto disponível como mensagens recentes enquanto resume tudo o que é anterior. A LangChain incorporou uma rede de segurança—o histórico completo da conversa persiste no sistema de ficheiros virtual do agente, permitindo recuperação se a compressão correr mal.
Os testes internos mostraram que os agentes são conservadores ao acionar a compressão. A LangChain validou a funcionalidade contra o seu benchmark Terminal-bench-2 e suítes de avaliação personalizadas usando traços LangSmith. Quando os agentes comprimiram autonomamente, escolheram consistentemente momentos que melhoraram a continuidade do fluxo de trabalho.
O Panorama Geral
Este lançamento reflete uma mudança mais ampla na filosofia de arquitetura de agentes. A LangChain referencia explicitamente a "lição amarga" de Richard Sutton—a observação de que métodos gerais que aproveitam a computação tendem a superar abordagens meticulosamente ajustadas ao longo do tempo.
Em vez de os programadores configurarem meticulosamente quando os agentes devem gerir a memória, a framework delega essa decisão ao próprio modelo. É uma aposta de que as capacidades de raciocínio em modelos como o GPT-5.4 atingiram o ponto em que podem tomar estas decisões operacionais de forma fiável.
Para programadores que constroem agentes de longa duração ou interativos, a funcionalidade é opcional através do SDK e está disponível via comando /compact no CLI. O impacto prático: menos fluxos de trabalho interrompidos e menos assistência ao utilizador em torno de limites de contexto que a maioria dos utilizadores finais não compreende de qualquer forma.
- langchain
- agentes de ia
- compressão de contexto
- deep agents sdk
- ferramentas de programador


