Открытая лекция «Путешествие в мир LLM Pretrain» 16 февраля 2026

Аватар автора
Магистратура ML & BD | ММФ НГУ
16 февраля прошла открытая лекция «Путешествие в мир LLM Pretrain или как обучить модель весом в терабайт» от Валентина Мамедова. В своём рассказе Валентин рассказал, как на практике обучают модели размером в сотни миллиардов параметров на примере GigaChat Ultra, а также о распределённом обучении больших LLM: чем большие модели отличаются от маленьких, зачем нужны MoE-модели и какие оптимизации помогают ускорять и стабилизировать pretrain.

0/0


0/0

0/0

0/0

Скачать популярное видео

Популярное видео

0/0