Команда Китайской академии наук предложила гиперграфическую архитектуру памяти HyperMem, достигнута прорыв в памяти для диалогового ИИ длительной длины

robot
Генерация тезисов в процессе

ME News Новости, 11 апреля (UTC+8), исследовательская команда Института информационных технологий Китайской академии наук опубликовала статью на главной конференции ACL 2026, предложив архитектуру гиперграфической памяти HyperMem для долгосрочных диалогов, которая достигла оценки точности 92,73% на базе теста LoCoMo, превзойдя текущий лучший результат.
Существующие решения RAG и графической памяти в основном полагаются на парные отношения, что затрудняет захват высокоуровневых связей между несколькими элементами, приводя к фрагментации извлекаемого контента.
HyperMem вводит структуру гиперграфа, разделяя память диалога на уровни темы, фрагмента и факта, и объединяет связанные фрагменты и факты с помощью гиперрёбер, используя гибридный лексико-семантический индекс и стратегию поиска от грубого к точному для эффективного и точного извлечения высокоуровневых связей.
Результаты экспериментов показывают, что на базе теста LoCoMo HyperMem достигает точности 92,73% в оценке LLM-as-a-judge, что является текущим передовым результатом (SOTA), подтверждая его эффективность в моделировании согласованности и персонализации долгосрочных диалогов.
Это исследование предлагает новые подходы для диалоговых интеллектуальных систем в поддержании контекстной связности, отслеживании продолжительных задач и предоставлении персонализированных услуг в долгосрочном взаимодействии.
Статья опубликована на arXiv (номер 2604.08256). (Источник: BlockBeats)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить