Российские ученые разработали технологию, которая позволяет рекомендательным системам точнее определять интересы пользователей без потери скорости работы. Решение создано специалистами Центра практического искусственного интеллекта Сбербанка совместно с исследователями Института AIRI, Университета Иннополис и Университета ИТМО, сообщила пресс-служба Сбера.
Уточняется, что команде удалось перенести глубокие семантические знания больших языковых моделей (LLM) в компактные рекомендательные системы. Это позволило повысить точность подбора товаров, фильмов и другого контента, сохранив при этом быстродействие сервисов.
Новая методика описана в научной статье под руководством исполнительного директора по исследованию данных Центра ИИ Сбербанка Алексея Васильева и представлена на конференции ECIR 2026.
По словам Николая Тидена, директора Центра практического искусственного интеллекта Сбера, внедрение такого подхода дает возможность использовать интеллектуальный потенциал крупных моделей без существенных вычислительных затрат.
«Наш метод позволяет сохранить понимание глубинных мотивов пользователя, но избавляет от необходимости обращаться к большим языковым моделям при каждом запросе», — отметил он.
Сообщается, что результаты экспериментов показали: добавление модуля дистилляции LLM к популярным архитектурам рекомендательных систем увеличивает точность и полноту рекомендаций на 4-6%, тогда как скорость генерации рекомендаций остается сопоставимой с базовыми легкими моделями.
В частности, на наборе данных ML‑20M точность NDCG@10 выросла на 5,62%, а время отклика системы снизилось почти в 190 раз.
Разработчики отмечают, что внедрение технологии позволит цифровым сервисам — онлайн-кинотеатрам, магазинам и стриминговым платформам — предлагать пользователям более персонализированные рекомендации без дополнительных затрат на инфраструктуру и без потери производительности.