Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Команда Китайской академии наук предложила гиперграфическую архитектуру памяти HyperMem, достигнута прорыв в памяти для диалогового ИИ длительной длины
ME News Новости, 11 апреля (UTC+8), исследовательская команда Института информационных технологий Китайской академии наук опубликовала статью на главной конференции ACL 2026, предложив архитектуру гиперграфической памяти HyperMem для долгосрочных диалогов, которая достигла оценки точности 92,73% на базе теста LoCoMo, превзойдя текущий лучший результат.
Существующие решения RAG и графической памяти в основном полагаются на парные отношения, что затрудняет захват высокоуровневых связей между несколькими элементами, приводя к фрагментации извлекаемого контента.
HyperMem вводит структуру гиперграфа, разделяя память диалога на уровни темы, фрагмента и факта, и объединяет связанные фрагменты и факты с помощью гиперрёбер, используя гибридный лексико-семантический индекс и стратегию поиска от грубого к точному для эффективного и точного извлечения высокоуровневых связей.
Результаты экспериментов показывают, что на базе теста LoCoMo HyperMem достигает точности 92,73% в оценке LLM-as-a-judge, что является текущим передовым результатом (SOTA), подтверждая его эффективность в моделировании согласованности и персонализации долгосрочных диалогов.
Это исследование предлагает новые подходы для диалоговых интеллектуальных систем в поддержании контекстной связности, отслеживании продолжительных задач и предоставлении персонализированных услуг в долгосрочном взаимодействии.
Статья опубликована на arXiv (номер 2604.08256). (Источник: BlockBeats)