Как выбирать LLM‑модель для self‑hosted: бенчмарки, вайб‑чеки

Аватар автора
Veal - управляемый AI в разработке
Veai - это Cursor для JetBrains IDE — платформа управляемого ИИ для разработки, которая помогает СТО и техническим командам внедрять AI‑ассистентов и код‑агентов в продакшен с измеримым эффектом и соблюдением требований корпоративной безопасности.  00:00 – Приветствие, тема выпуска: как выбирать модель для self‑hosted, почему «какая модель лучше» — неправильный вопрос.  01:44 – Где искать актуальные модели: таблица Life‑Architect, слухи, публичность, open‑source/закрытые модели. 03:30 – Нишевые модели и китайские лаборатории: почему сильные модели часто не попадают в хайп‑каналы.  04:10 – Ограничения табличек и заметок: комментарии, контекст, зачем читать с поправкой на «их use‑case».  05:30 – Reddit /r/LocalLLaMA, сливы и «рано увиденные» модели, мониторинг API провайдеров.  06:50 – Hugging Face как прямой источник новинок vs. Telegram/Хабр с лагом в несколько дней.  07:55 – Enterprise‑контекст: почему для компаний важно «социальное принятие» модели и фильтрация через комьюнити.  08:19 – Боль бенчмарков: benchmaxing, дообучение на публичных тестах и маркетинговые графики.  10:30 – Почему красивые графики «intelligence index» ≈ попугаи, а не гарантия качества в бою.  12:31 – Локальные модели «на коленке»: где они реально полезны (CLI, простые скрипты) и где резко упираются в потолок.  13:34 – Аналогия с железными бенчмарками: как «идеальные цифры» расходятся с реальной разработкой.  15:40 – Посты и отзывы людей как источник шума: боты, промо‑комментарии, повторное обучение...

0/0


0/0

0/0

0/0

0/0