Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь, третью часть — здесь). В этой, четвертой части авторы совсем скромненько, словно тренировались заполнять налоговую декларацию, разбирают технологии аугментации извлеченных данных.
Рубрика «retrieval»
Часть 4. Обзор технологий RAG для LLM: аугментация извлеченных данных
2025-05-16 в 20:29, admin, рубрики: llm, llm-агент, llm-архитектура, llm-модели, llm-приложения, rag, rag pipeline, retrieval, retrieval augmented generation, языковые моделиHippo-RAG: Долговременная память для LLM, вдохновленная нейробиологией
2024-11-22 в 5:00, admin, рубрики: llm, machine learning, natural language processing, rag, retrieval, retrieval augmented generation, transformer, TransformersУченые часто вдохновляется нашими или животными биологическими структурами: CNN, MLP, Backprop, и для многих других исследований можно найти сходства в реальном мире. Недавно вышла статья, которая делает то же самое, но для RAG (Retrieval-Augmented Generation). В некотором роде, это недостающая современным LLM долгосрочная память. Это понятно, а причем тут неокортекст, гиппокамп и другие сложные слова? Давайте посмотрим.
