🏫 Можно ли еще сильнее разогнать большие языковые модели? Краткий ответ — да! А как это сделать в
🏫 Можно ли еще сильнее разогнать большие языковые модели? Краткий ответ — да!
А как это сделать в продакшене, если упираетесь в лимиты по GPU или скорости обучения — расскажут на бесплатном интенсиве ШАДа и Яндекс Образования — LLM Scaling Week.
Практические лекции и семинар от инженеров команды YandexGPT, максимум практики и никакой воды.
За время интенсива:
✅ Узнаете главное о коммуникациях в распределенном обучении и инференсе, арифметике глубокого обучения.
✅ Разберетесь, как перейти с одной GPU на десятки, не сжигая бюджет.
✅ Освоите современные подходы к увеличению эффективности обучения LLM: FP8, Triton, параллелизмы, Mixture of Experts.
✅ Поймете, как переходить от экспериментов к масштабу на примере реального продакшена.
Зарегистрироваться на LLM Scaling Week — по ссылке.
Комментарии