Как выбирать LLM‑модель для self‑hosted: бенчмарки, вайб‑чеки

Аватар автора
Veai (Виай)
Veai - это Cursor для JetBrains IDE — платформа управляемого ИИ для разработки, которая помогает СТО и техническим командам внедрять AI‑ассистентов и код‑агентов в продакшен с измеримым эффектом и соблюдением требований корпоративной безопасности. 00:00 – Приветствие, тема выпуска: как выбирать модель для self‑hosted, почему «какая модель лучше» — неправильный вопрос. 01:44 – Где искать актуальные модели: таблица Life‑Architect, слухи, публичность, open‑source/закрытые модели. 03:30 – Нишевые модели и китайские лаборатории: почему сильные модели часто не попадают в хайп‑каналы. 04:10 – Ограничения табличек и заметок: комментарии, контекст, зачем читать с поправкой на «их use‑case». 05:30 – Reddit /r/LocalLLaMA, сливы и «рано увиденные» модели, мониторинг API провайдеров. 06:50 – Hugging Face как прямой источник новинок vs. Telegram/Хабр с лагом в несколько дней. 07:55 – Enterprise‑контекст: почему для компаний важно «социальное принятие» модели и фильтрация через комьюнити. 08:19 – Боль бенчмарков: benchmaxing, дообучение на публичных тестах и маркетинговые графики. 10:30 – Почему красивые графики «intelligence index» ≈ попугаи, а не гарантия качества в бою. 12:31 – Локальные модели «на коленке»: где они реально полезны (CLI, простые скрипты) и где резко упираются в потолок. 13:34 – Аналогия с железными бенчмарками: как «идеальные цифры» расходятся с реальной разработкой. 15:40 – Посты и отзывы людей как источник шума: боты, промо‑комментарии, повторное...

0/0


0/0

0/0

0/0

Скачать популярное видео

Популярное видео

0/0