LangChain به AI Agent ها کنترل مدیریت حافظه خود را میدهد
تریل دیکی 1404/12/21 01:55
Deep Agents SDK لنگچین اکنون به مدلهای هوش مصنوعی اجازه میدهد تصمیم بگیرند چه زمانی پنجرههای متنی خود را فشرده کنند و مداخله دستی در گردشکارهای طولانیمدت AI Agent را کاهش دهند.
لنگچین بهروزرسانی Deep Agents SDK خود را منتشر کرده است که کلیدهای مدیریت حافظه را به مدلهای هوش مصنوعی میسپارد. این ویژگی جدید که در 1404/12/20 اعلام شد، به AI Agent ها اجازه میدهد بهطور خودمختار فشردهسازی متن را فعال کنند به جای اینکه به آستانههای ثابت توکن یا دستورات دستی کاربر متکی باشند.
این تغییر یک مشکل مداوم در توسعه AI Agent را برطرف میکند: پنجرههای متنی در زمانهای نامناسب پر میشوند. سیستمهای فعلی معمولاً زمانی حافظه را فشرده میکنند که به 85% محدودیت متن مدل برسند—که ممکن است در میانه بازسازی کد یا در طول یک جلسه اشکالزدایی پیچیده رخ دهد. زمانبندی نامناسب منجر به از دست رفتن متن و شکستن گردشکارها میشود.
چرا زمانبندی مهم است
فشردهسازی متن چیز جدیدی نیست. این تکنیک پیامهای قدیمیتر را با خلاصههای فشرده جایگزین میکند تا AI Agent ها را در محدودیت توکن خود نگه دارد. اما زمان فشردهسازی به اندازه اینکه آیا فشرده میکنید یا خیر اهمیت دارد.
پیادهسازی لنگچین چندین لحظه بهینه فشردهسازی را شناسایی میکند: مرزهای تسک زمانی که کاربران تمرکز خود را تغییر میدهند، پس از استخراج نتایج از متنهای تحقیقاتی بزرگ، یا قبل از شروع ویرایشهای طولانی چند فایلی. AI Agent اساساً یاد میگیرد قبل از شروع کار پیچیده خانه را تمیز کند به جای اینکه وقتی فضا تمام میشود دست و پا بزند.
تحقیقات Factory AI منتشر شده در آذر 1403 از این رویکرد پشتیبانی میکند. تحلیل آنها نشان داد که خلاصهسازی ساختاریافته—حفظ پیوستگی متن به جای حذف تهاجمی—برای وظایف پیچیده AI Agent مانند اشکالزدایی حیاتی است. AI Agent هایی که ساختار گردشکار را حفظ کردند به طور قابل توجهی بهتر از آنهایی عمل کردند که از روشهای ساده قطع استفاده میکردند.
پیادهسازی فنی
این ابزار به عنوان میانافزار برای Deep Agents SDK (Python) ارائه میشود و با CLI موجود یکپارچه میشود. توسعهدهندگان آن را به پیکربندی AI Agent خود اضافه میکنند:
سیستم 10% از متن موجود را به عنوان پیامهای اخیر حفظ میکند در حالی که همه چیز قبلی را خلاصه میکند. لنگچین یک شبکه ایمنی ساخته است—تاریخچه کامل مکالمه در سیستم فایل مجازی AI Agent باقی میماند و در صورت اشتباه فشردهسازی امکان بازیابی وجود دارد.
آزمایشهای داخلی نشان داد AI Agent ها در فعالسازی فشردهسازی محتاط هستند. لنگچین این ویژگی را در برابر معیار Terminal-bench-2 و مجموعههای ارزیابی سفارشی خود با استفاده از ردیابهای LangSmith اعتبارسنجی کرد. زمانی که AI Agent ها بهطور خودمختار فشردهسازی انجام دادند، به طور مداوم لحظاتی را انتخاب کردند که پیوستگی گردشکار را بهبود بخشید.
تصویر بزرگتر
این انتشار منعکسکننده تغییر گستردهتر در فلسفه معماری AI Agent است. لنگچین بهطور صریح به "درس تلخ" ریچارد ساتون اشاره میکند—مشاهدهای که روشهای عمومی استفادهکننده از محاسبات در طول زمان تمایل دارند از رویکردهای تنظیمشده دستی بهتر عمل کنند.
به جای اینکه توسعهدهندگان دقیقاً پیکربندی کنند چه زمانی AI Agent ها باید حافظه را مدیریت کنند، فریمورک آن تصمیم را به خود مدل واگذار میکند. این یک شرطبندی است که قابلیتهای استدلال در مدلهایی مانند GPT-5.4 به نقطهای رسیدهاند که میتوانند این تصمیمات عملیاتی را به طور قابل اعتماد بگیرند.
برای توسعهدهندگانی که AI Agent های طولانیمدت یا تعاملی میسازند، این ویژگی از طریق SDK اختیاری است و از طریق دستور /compact در CLI در دسترس است. تأثیر عملی: گردشکارهای قطعشده کمتر و راهنمایی کمتر کاربر در مورد محدودیتهای متنی که به هر حال اکثر کاربران نهایی آن را درک نمیکنند.
- langchain
- ai agents
- فشردهسازی متن
- deep agents sdk
- ابزارهای توسعهدهنده


