LangChain Memberikan Kontrol kepada Agen AI atas Manajemen Memori Mereka Sendiri
Terrill Dicki 12 Mar 2026 01:55
Deep Agents SDK milik LangChain kini memungkinkan model AI memutuskan kapan harus mengompresi jendela konteks mereka, mengurangi intervensi manual dalam alur kerja agen yang berjalan lama.
LangChain telah merilis pembaruan untuk Deep Agents SDK-nya yang memberikan kunci kepada model AI untuk mengelola memori mereka sendiri. Fitur baru ini, yang diumumkan pada 11 Maret 2026, memungkinkan agen untuk secara otonom memicu kompresi konteks daripada bergantung pada ambang batas token tetap atau perintah manual pengguna.
Perubahan ini mengatasi masalah yang terus-menerus dalam pengembangan agen: jendela konteks terisi penuh pada waktu yang tidak tepat. Sistem saat ini biasanya memadatkan memori ketika mencapai 85% dari batas konteks model—yang mungkin terjadi di tengah refaktor atau selama sesi debugging yang kompleks. Waktu yang buruk menyebabkan kehilangan konteks dan alur kerja yang rusak.
Mengapa Waktu Penting
Kompresi konteks bukanlah hal baru. Teknik ini menggantikan pesan lama dengan ringkasan yang dipadatkan untuk menjaga agen tetap dalam batas token mereka. Tetapi kapan Anda mengompresi sama pentingnya dengan apakah Anda mengompresi.
Implementasi LangChain mengidentifikasi beberapa momen kompresi optimal: batas tugas ketika pengguna mengalihkan fokus, setelah mengekstrak kesimpulan dari konteks penelitian yang besar, atau sebelum memulai pengeditan multi-file yang panjang. Agen pada dasarnya belajar untuk membersihkan rumah sebelum memulai pekerjaan yang berantakan daripada bergegas ketika kehabisan ruang.
Penelitian dari Factory AI yang diterbitkan pada Desember 2024 mendukung pendekatan ini. Analisis mereka menemukan bahwa peringkasan terstruktur—mempertahankan kontinuitas konteks daripada pemotongan agresif—terbukti kritis untuk tugas agen yang kompleks seperti debugging. Agen yang mempertahankan struktur alur kerja secara signifikan mengungguli mereka yang menggunakan metode pemotongan sederhana.
Implementasi Teknis
Alat ini dikirimkan sebagai middleware untuk Deep Agents SDK (Python) dan terintegrasi dengan CLI yang ada. Pengembang menambahkannya ke konfigurasi agen mereka:
Sistem mempertahankan 10% dari konteks yang tersedia sebagai pesan terbaru sambil meringkas semua yang sebelumnya. LangChain membangun jaring pengaman—riwayat percakapan lengkap tetap ada di sistem file virtual agen, memungkinkan pemulihan jika kompresi salah.
Pengujian internal menunjukkan agen bersikap konservatif tentang memicu kompresi. LangChain memvalidasi fitur tersebut terhadap benchmark Terminal-bench-2 mereka dan suite evaluasi kustom menggunakan jejak LangSmith. Ketika agen melakukan kompresi secara otonom, mereka secara konsisten memilih momen yang meningkatkan kontinuitas alur kerja.
Gambaran Besar
Rilis ini mencerminkan pergeseran yang lebih luas dalam filosofi arsitektur agen. LangChain secara eksplisit merujuk pada "pelajaran pahit" Richard Sutton—pengamatan bahwa metode umum yang memanfaatkan komputasi cenderung mengungguli pendekatan yang disetel dengan tangan dari waktu ke waktu.
Daripada pengembang dengan cermat mengkonfigurasi kapan agen harus mengelola memori, framework mendelegasikan keputusan itu ke model itu sendiri. Ini adalah taruhan bahwa kemampuan penalaran dalam model seperti GPT-5.4 telah mencapai titik di mana mereka dapat membuat keputusan operasional ini dengan andal.
Untuk pengembang yang membangun agen yang berjalan lama atau interaktif, fitur ini bersifat opt-in melalui SDK dan tersedia melalui perintah /compact di CLI. Dampak praktis: lebih sedikit alur kerja yang terganggu dan lebih sedikit bimbingan pengguna seputar batas konteks yang sebagian besar pengguna akhir tidak mengerti.
- langchain
- agen ai
- kompresi konteks
- deep agents sdk
- alat pengembang


