LangChain предоставляет ИИ-агентам контроль над управлением собственной памятью
Terrill Dicki 01:55, 12 марта 2026
Deep Agents SDK от LangChain теперь позволяет моделям ИИ самостоятельно решать, когда сжимать свои контекстные окна, сокращая ручное вмешательство в долгосрочные рабочие процессы агентов.
LangChain выпустила обновление для своего Deep Agents SDK, которое передает моделям ИИ ключи к управлению собственной памятью. Новая функция, анонсированная 11 марта 2026 года, позволяет агентам автономно запускать сжатие контекста, вместо того чтобы полагаться на фиксированные пороги токенов или ручные команды пользователей.
Изменение решает постоянную проблему в разработке агентов: контекстные окна заполняются в неудобное время. Текущие системы обычно сжимают память при достижении 85% лимита контекста модели — что может произойти в середине рефакторинга или во время сложной сессии отладки. Плохая синхронизация приводит к потере контекста и нарушению рабочих процессов.
Почему время имеет значение
Сжатие контекста не является новинкой. Эта техника заменяет старые сообщения сжатыми резюме, чтобы удерживать агентов в пределах их лимитов токенов. Но когда вы сжимаете, имеет такое же значение, как и то, сжимаете ли вы вообще.
Реализация LangChain определяет несколько оптимальных моментов сжатия: границы задач, когда пользователи меняют фокус, после извлечения выводов из больших исследовательских контекстов или перед началом длительных многофайловых редактирований. Агент по сути учится наводить порядок перед началом грязной работы, а не суетиться, когда заканчивается место.
Исследование Factory AI, опубликованное в декабре 2024 года, подтверждает этот подход. Их анализ показал, что структурированное резюмирование — сохранение непрерывности контекста, а не агрессивное усечение — оказалось критически важным для сложных задач агентов, таких как отладка. Агенты, которые поддерживали структуру рабочего процесса, значительно превзошли тех, кто использовал простые методы обрезки.
Техническая реализация
Инструмент поставляется как промежуточное программное обеспечение для Deep Agents SDK (Python) и интегрируется с существующим CLI. Разработчики добавляют его в конфигурацию своего агента:
Система сохраняет 10% доступного контекста в виде последних сообщений, резюмируя всё предыдущее. LangChain встроила защитную сеть — полная история разговоров сохраняется в виртуальной файловой системе агента, что позволяет восстановить данные, если сжатие пойдет не так.
Внутреннее тестирование показало, что агенты консервативны в запуске сжатия. LangChain проверила функцию с помощью своего бенчмарка Terminal-bench-2 и пользовательских наборов оценки, используя трассировки LangSmith. Когда агенты действительно автономно сжимали данные, они последовательно выбирали моменты, которые улучшали непрерывность рабочего процесса.
Общая картина
Этот релиз отражает более широкий сдвиг в философии архитектуры агентов. LangChain явно ссылается на «горький урок» Ричарда Саттона — наблюдение о том, что общие методы, использующие вычисления, со временем имеют тенденцию превосходить точно настроенные подходы.
Вместо того чтобы разработчики тщательно настраивали, когда агенты должны управлять памятью, фреймворк делегирует это решение самой модели. Это ставка на то, что возможности рассуждения в моделях, таких как GPT-5.4, достигли точки, когда они могут надежно принимать эти операционные решения.
Для разработчиков, создающих долгосрочные или интерактивные агенты, функция доступна опционально через SDK и доступна через команду /compact в CLI. Практический эффект: меньше прерванных рабочих процессов и меньше необходимости помогать пользователям с лимитами контекста, которые большинство конечных пользователей всё равно не понимают.
- langchain
- ИИ-агенты
- сжатие контекста
- deep agents sdk
- инструменты разработчика


