رأيت شيئًا مثيرًا حول أحدث أبحاث Mem0 — إنهم يخلقون موجات حقيقية في كيفية تذكر الذكاء الاصطناعي للأشياء خلال المحادثات الطويلة.



إذن إليك الأمر: أصدرت Mem0 نتائجها على معيار LOCOMO، والأرقام مذهلة جدًا. خوارزمية الذاكرة طويلة المدى الخاصة بهم تحقق دقة أعلى بنسبة 26% مقارنة بإعداد الذاكرة المدمج في OpenAI. هذا ليس فرقًا صغيرًا. لكن ما لفت انتباهي حقًا هو جانب الكفاءة — فهم يقللون من زمن استنتاج P95 بنسبة 91% ويخفضون استهلاك الرموز بنسبة 90%. نحن نتحدث عن حل للمشكلة الكلاسيكية في الذكاء الاصطناعي حيث تتجاهل هذه الأنظمة... الأشياء عندما تصبح المحادثات طويلة.

النهج ذكي أيضًا. بدلاً من مجرد إضافة المزيد من السياق للمشكلة كما يفعل معظم الناس، تستخدم Mem0 نظامًا من مرحلتين. أولاً، يستخرجون الحقائق الفعلية من رسائلك الأخيرة، الملخصات، والتاريخ. ثم يقارنون ذلك مع قاعدة بيانات متجهات ويقومون بالتحديث وفقًا لذلك — يضيفون أشياء جديدة، يحدثون التناقضات، يحذفون البيانات غير ذات الصلة. يحافظون على كل شيء نظيفًا ومتسقًا. حتى أنهم بنوا نسخة محسنة تسمى Mem0ᵍ تستخدم هياكل الرسوم البيانية لرسم علاقات معقدة بين الكيانات عبر جلسات متعددة.

ما يهم حقًا؟ السرعة. في الإنتاج، تتعامل Mem0 مع الدورة الكاملة — استرجاع الذاكرة، توليد الرد، كل شيء — في 0.71 ثانية. الطرق التقليدية لا تزال عالقة عند حوالي 10 ثوانٍ. هذا هو الفرق الذي يهم حقًا للتطبيقات الواقعية.

تم قبول البحث من قبل ECAI ونشر على GitHub كمصدر مفتوح، بحيث يمكن للناس التعمق في كيفية عمله. هذا يبدو كخطوة تدريجية لكنها مهمة نحو جعل وكلاء الذكاء الاصطناعي أقل نسيانًا. من الجدير مراقبته إذا كنت تتابع جانب الذاكرة والتفكير في تطوير الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت