От RAG к контекстной инженерии: как управлять знаниями LLM

Аватар автора
AI4Dev — AI for development /Artezio
RAG обещал решить всё: подключаем базу знаний — и модель начинает «знать правду». Но на практике всё не так просто. Почему LLM путается в документах? Почему ответы становятся хуже, когда контекста больше? И почему один и тот же RAG в демо работает идеально, а в проде — нет? ⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, что на самом деле происходит с контекстом, какие бывают модификации RAG и почему сегодня ключевая компетенция — это не prompt engineering, а контекстная инженерия. Говорим про: → multi-stage и hierarchical RAG; → переписывание запросов и умный retrieval; → memory-RAG и агентные подходы; → управление контекстом, при котором модель не «сходит с ума». 00:00 Введение 01:00 Лекция 59:45 Вопросы

0/0


0/0

0/0

0/0

Скачать популярное видео

Популярное видео

0/0