Твоя нейронка выдает мусор? 3 параметра LLM, которые изменят ВСЁ за 15 минут

Аватар автора
RixAI
В этом видео мы подробно разберем, как temperature влияет на генерацию текста в chatgpt. Вы узнаете о top p и top k sampling, двух важных sampling strategies, помогающих контролировать креативность ai. Это необходимо для улучшения `text generation` и достижения большей консистентности. Что разберём: - Где встречаются параметры (OpenAI Platform, Open WebUI и др.) - Temperature: как влияет на предсказуемость/креативность (аналогия «плита/огонь») - Top_k: сколько кандидатов вообще участвует в выборе - Top_p (nucleus): как работает «порог по суммарной вероятности» - Базовые пресеты: для кода/алгоритмов vs для креатива/идей - Логика применения: сначала temperature, потом top_p и top_k - Шпаргалка, чтобы не крутить слайдеры «на удачу» Практика из видео: - Примеры продолжения фраз с разной температурой - Когда снижать temperature - Когда поднимать temperature - Как расширять «хвост» редких идей через top_k / top_p - Почему «стандартные» настройки = стандартные ответы # Таймкоды 00:00 — Зачем смотреть: 3 параметра, которые реально меняют ответы 00:25 — Почему «стоковые» настройки дают посредственный результат 01:04 — Креативные vs предсказуемые ответы: где что нужно 01:59 — Какие параметры будем трогать: temperature, top_p, top_k 02:15 — OpenAI Platform: есть temperature и top_p, нет top_k 03:01 — Open WebUI: есть все три параметра (пример интерфейса) 04:01 — Temperature через метафоры: тело/плита, что происходит «под капотом» 06:16 — Вероятности и выбор следующего слова...

0/0


0/0

0/0

0/0