LangChain এআই এজেন্টদের তাদের নিজস্ব মেমরি ব্যবস্থাপনার উপর নিয়ন্ত্রণ প্রদান করে
Terrill Dicki মার্চ ১২, ২০২৬ ০১:৫৫
LangChain-এর Deep Agents SDK এখন এআই মডেলগুলিকে সিদ্ধান্ত নিতে দেয় কখন তাদের কনটেক্সট উইন্ডো সংকুচিত করতে হবে, যা দীর্ঘমেয়াদী এজেন্ট ওয়ার্কফ্লোতে ম্যানুয়াল হস্তক্ষেপ হ্রাস করে।
LangChain তার Deep Agents SDK-এ একটি আপডেট প্রকাশ করেছে যা এআই মডেলগুলিকে তাদের নিজস্ব মেমরি ব্যবস্থাপনার চাবি প্রদান করে। নতুন বৈশিষ্ট্যটি, ১১ মার্চ, ২০২৬-এ ঘোষিত, এজেন্টগুলিকে স্বায়ত্তশাসিতভাবে কনটেক্সট সংকোচন ট্রিগার করতে দেয় নির্দিষ্ট টোকেন থ্রেশহোল্ড বা ম্যানুয়াল ইউজার কমান্ডের উপর নির্ভর করার পরিবর্তে।
পরিবর্তনটি এজেন্ট ডেভেলপমেন্টে একটি ক্রমাগত সমস্যার সমাধান করে: কনটেক্সট উইন্ডোগুলি অসুবিধাজনক সময়ে পূর্ণ হয়ে যায়। বর্তমান সিস্টেমগুলি সাধারণত মডেলের কনটেক্সট সীমার ৮৫% আঘাত করার সময় মেমরি সংকুচিত করে—যা মিড-রিফ্যাক্টর বা একটি জটিল ডিবাগিং সেশনের সময় ঘটতে পারে। খারাপ টাইমিং হারানো কনটেক্সট এবং ভাঙা ওয়ার্কফ্লোর দিকে নিয়ে যায়।
কেন টাইমিং গুরুত্বপূর্ণ
কনটেক্সট সংকোচন নতুন নয়। কৌশলটি পুরাতন বার্তাগুলিকে সংক্ষিপ্ত সারাংশ দিয়ে প্রতিস্থাপন করে এজেন্টগুলিকে তাদের টোকেন সীমার মধ্যে রাখতে। তবে আপনি কখন সংকুচিত করেন তা ততটাই গুরুত্বপূর্ণ যতটা আপনি সংকুচিত করেন কিনা।
LangChain-এর বাস্তবায়ন বেশ কয়েকটি সর্বোত্তম সংকোচন মুহূর্ত চিহ্নিত করে: টাস্ক সীমানা যখন ইউজাররা ফোকাস পরিবর্তন করে, বড় গবেষণা কনটেক্সট থেকে উপসংহার বের করার পরে, বা দীর্ঘ মাল্টি-ফাইল এডিট শুরু করার আগে। এজেন্ট মূলত অগোছালো কাজ শুরু করার আগে ঘর পরিষ্কার করতে শেখে জায়গা শেষ হয়ে গেলে তড়িঘড়ি করার পরিবর্তে।
ডিসেম্বর ২০২৪-এ প্রকাশিত Factory AI-এর গবেষণা এই পদ্ধতিকে সমর্থন করে। তাদের বিশ্লেষণ দেখেছে যে কাঠামোগত সারাংশকরণ—আক্রমণাত্মক ছেঁটে ফেলার পরিবর্তে কনটেক্সট ধারাবাহিকতা সংরক্ষণ করা—ডিবাগিংয়ের মতো জটিল এজেন্ট টাস্কের জন্য গুরুত্বপূর্ণ প্রমাণিত হয়েছে। যে এজেন্টগুলি ওয়ার্কফ্লো কাঠামো বজায় রেখেছে তারা সাধারণ কাটঅফ পদ্ধতি ব্যবহারকারীদের তুলনায় উল্লেখযোগ্যভাবে ভাল পারফর্ম করেছে।
প্রযুক্তিগত বাস্তবায়ন
টুলটি Deep Agents SDK (Python)-এর জন্য মিডলওয়্যার হিসাবে সরবরাহ করা হয় এবং বিদ্যমান CLI-এর সাথে একীভূত হয়। ডেভেলপাররা এটি তাদের এজেন্ট কনফিগারেশনে যোগ করেন:
সিস্টেমটি সাম্প্রতিক বার্তা হিসাবে উপলব্ধ কনটেক্সটের ১০% ধরে রাখে যখন পূর্বের সবকিছু সংক্ষিপ্ত করে। LangChain একটি নিরাপত্তা জাল তৈরি করেছে—সম্পূর্ণ কথোপকথনের ইতিহাস এজেন্টের ভার্চুয়াল ফাইলসিস্টেমে থাকে, যা সংকোচন ভুল হলে পুনরুদ্ধারের অনুমতি দেয়।
অভ্যন্তরীণ পরীক্ষা দেখিয়েছে যে এজেন্টরা সংকোচন ট্রিগার করার বিষয়ে রক্ষণশীল। LangChain তাদের Terminal-bench-2 বেঞ্চমার্ক এবং LangSmith ট্রেস ব্যবহার করে কাস্টম মূল্যায়ন স্যুটের বিপরীতে বৈশিষ্ট্যটি যাচাই করেছে। যখন এজেন্টরা স্বায়ত্তশাসিতভাবে সংকুচিত করেছে, তারা ধারাবাহিকভাবে এমন মুহূর্ত বেছে নিয়েছে যা ওয়ার্কফ্লো ধারাবাহিকতা উন্নত করেছে।
বৃহত্তর চিত্র
এই রিলিজটি এজেন্ট আর্কিটেকচার দর্শনে একটি বৃহত্তর পরিবর্তন প্রতিফলিত করে। LangChain স্পষ্টভাবে Richard Sutton-এর "তিক্ত পাঠ" উল্লেখ করে—পর্যবেক্ষণ যে সাধারণ পদ্ধতিগুলি যা গণনা ব্যবহার করে সময়ের সাথে সাথে হাতে-টিউন করা পদ্ধতিগুলির চেয়ে ভাল পারফর্ম করে।
ডেভেলপাররা যত্ন সহকারে কনফিগার করার পরিবর্তে কখন এজেন্টদের মেমরি পরিচালনা করা উচিত, ফ্রেমওয়ার্ক সেই সিদ্ধান্ত মডেলের নিজেই অর্পণ করে। এটি একটি বাজি যে GPT-5.4-এর মতো মডেলগুলিতে যুক্তির ক্ষমতা এমন পর্যায়ে পৌঁছেছে যেখানে তারা এই অপারেশনাল সিদ্ধান্তগুলি নির্ভরযোগ্যভাবে নিতে পারে।
দীর্ঘমেয়াদী বা ইন্টারেক্টিভ এজেন্ট তৈরি করা ডেভেলপারদের জন্য, বৈশিষ্ট্যটি SDK-এর মাধ্যমে অপ্ট-ইন এবং CLI-তে /compact কমান্ডের মাধ্যমে উপলব্ধ। ব্যবহারিক প্রভাব: কম বাধাগ্রস্ত ওয়ার্কফ্লো এবং কনটেক্সট সীমার চারপাশে কম ইউজার হ্যান্ড-হোল্ডিং যা বেশিরভাগ শেষ ইউজার যেভাবেই বুঝেন না।
- langchain
- ai agents
- context compression
- deep agents sdk
- developer tools



