LLM-модели хорошо решают задачи диалога, но имеют одно ключевое ограничение: отсутствие встроенной долговременной памяти. Модель опирается только на текущий контекст сообщений, и при его обрезании:
-
забывает факты
-
путает детали
-
теряет согласованность личности
-
повышается стоимость из-за длины контекста
В этой статье я хочу разобрать архитектуру, которую использовал для реализации выборочной памятиЧитать полностью »

