SVD в машинном обучении
MLinside
SVD — один из базовых инструментов линейной алгебры, который широко применяется в машинном обучении. В этом видео Андрей Жогов (ML-инженер в Сбере, преподаватель Физтеха) разбирает, как работает SVD, почему он позволяет находить скрытую структуру в данных и где именно используется на практике: от обработки текстов до рекомендательных систем и современных LLM. Это разбор без перегруза формулами, но с пониманием сути и применения. Андрей объясняет SVD через геометрическую интуицию, показывает, как из большой и зашумлённой матрицы получить компактное представление данных, и разбирает ключевые кейсы: латентно-семантический анализ (LSA), матричную факторизацию и применение SVD в LoRA для дообучения нейросетей. В конце вас ждёт неожиданный пример, как SVD выявляет скрытые закономерности даже в данных голосований. Кому будет полезно это видео и почему • Начинающим в ML и Data Science — чтобы понять одну из ключевых тем линейной алгебры через практику, а не абстрактные формулы • Студентам и тем, кто изучает математику для ML — чтобы связать теорию (матрицы, разложения) с реальными задачами • ML-инженерам — чтобы глубже понимать методы снижения размерности, работу с признаками и оптимизацию моделей • Тем, кто работает с NLP — чтобы понять, как раньше решалась задача поиска смысла в текстах и откуда выросли современные эмбеддинги • Тем, кто интересуется LLM и fine-tuning — чтобы разобраться, как идеи SVD используются в LoRA и экономии ресурсов Таймкоды: 0:00 – Введение 1:35 – ...