Джокер
Администратор
- Регистрация
- 1 Янв 2015
- Сообщения
- 134.038
- Реакции
- 76.356
Складчина: LLM-инженер [Gigaschool] часть 1 из 5
ВНИМАНИЕ: Это первая из пяти складчин на полный курс.
В связи с высокой стоимостью (180 000 руб.) и продолжительностью (5,5 месяцев) курса, для удобства участников принято решение о его разделении на 5 частей. Каждая часть соответствует одному большому разделу программы. Каждая последующая складчина является продолжением предыдущей, и соответственно необходимо оплатить предыдущую.
Это первая часть большого онлайн-курса, на которой вы научитесь создавать, дообучать и оптимизировать собственные большие языковые модели (LLM). Под руководством экспертов вы изучите современные архитектуры, методы дообучения PEFT, выравнивания моделей с помощью RLHF и способы уменьшения их размера для эффективного использования.
Спойлер: Что вы освоите в этой части?
Ключевые навыки:
Разбираться в архитектурах современных LLM (close vs open models)
Запускать и адаптировать open-source модели под свои задачи
Настраивать модели с помощью fine-tuning и PEFT (LoRA / QLoRA)
Использовать методы RLHF для выравнивания моделей (включая DPO, PPO)
Снижать ресурсоёмкость моделей через квантизацию и дистилляцию
Основные инструменты:
Hugging Face Transformers
TRL (для RLHF)
LoRA / QLoRA
Программа первой части курса
Раздел 1. Своя LLM
Лекция: Современные LLM, close vs open models, оценка качества, бенчмарки, что выбрать для своих задач, прайсинг.
Лекция: Оптимизации инференса в LLM - KV-caching, speculative decoding, MoE.
Лекция: Проблематика обучения LLM, обзор методов PeFT, нюансы применения.
Семинар: Сравнение методов файнтюнинга - полный, LP, LP+FT, PEFT.
Лекция: Что такое RLHF & Alignment, базовая терминология RL и обзор методов: RLHF, PPO, DPO.
Семинар: TRL, RLHF для чат-модели - PPO или DPO.
Лекция: Обзор методов уменьшения размеров модели - дистилляция, квантование, прунинг.
Семинар: Сравнение инструментов и влияние «битности» на качество, Quantization + LoRA и прочие миксы.
Эксперты курса:
Александр Потехин (NLP Lead, X5 Tech), Роман Соломатин (ML Engineer, X5 Tech), Дарья Андреева (ML Engineer, X5 Tech), Кристина Желтова (Директор по разработке моделей, Газпромбанк), Евгений Кокуйкин (CEO, Raft).
Следующие части курса:
Часть 2. Prerequisites для RAG
Часть 3. RAG
Часть 4. Агенты
Часть 5. Инфраструктура
СКАЧАТЬ СЛИВЫ КУРСОВ
ВНИМАНИЕ: Это первая из пяти складчин на полный курс.
В связи с высокой стоимостью (180 000 руб.) и продолжительностью (5,5 месяцев) курса, для удобства участников принято решение о его разделении на 5 частей. Каждая часть соответствует одному большому разделу программы. Каждая последующая складчина является продолжением предыдущей, и соответственно необходимо оплатить предыдущую.
Это первая часть большого онлайн-курса, на которой вы научитесь создавать, дообучать и оптимизировать собственные большие языковые модели (LLM). Под руководством экспертов вы изучите современные архитектуры, методы дообучения PEFT, выравнивания моделей с помощью RLHF и способы уменьшения их размера для эффективного использования.
Спойлер: Что вы освоите в этой части?
Ключевые навыки:
Разбираться в архитектурах современных LLM (close vs open models)
Запускать и адаптировать open-source модели под свои задачи
Настраивать модели с помощью fine-tuning и PEFT (LoRA / QLoRA)
Использовать методы RLHF для выравнивания моделей (включая DPO, PPO)
Снижать ресурсоёмкость моделей через квантизацию и дистилляцию
Основные инструменты:
Hugging Face Transformers
TRL (для RLHF)
LoRA / QLoRA
Программа первой части курса
Раздел 1. Своя LLM
Лекция: Современные LLM, close vs open models, оценка качества, бенчмарки, что выбрать для своих задач, прайсинг.
Лекция: Оптимизации инференса в LLM - KV-caching, speculative decoding, MoE.
Лекция: Проблематика обучения LLM, обзор методов PeFT, нюансы применения.
Семинар: Сравнение методов файнтюнинга - полный, LP, LP+FT, PEFT.
Лекция: Что такое RLHF & Alignment, базовая терминология RL и обзор методов: RLHF, PPO, DPO.
Семинар: TRL, RLHF для чат-модели - PPO или DPO.
Лекция: Обзор методов уменьшения размеров модели - дистилляция, квантование, прунинг.
Семинар: Сравнение инструментов и влияние «битности» на качество, Quantization + LoRA и прочие миксы.
Эксперты курса:
Александр Потехин (NLP Lead, X5 Tech), Роман Соломатин (ML Engineer, X5 Tech), Дарья Андреева (ML Engineer, X5 Tech), Кристина Желтова (Директор по разработке моделей, Газпромбанк), Евгений Кокуйкин (CEO, Raft).
Следующие части курса:
Часть 2. Prerequisites для RAG
Часть 3. RAG
Часть 4. Агенты
Часть 5. Инфраструктура
СКАЧАТЬ СЛИВЫ КУРСОВ
Для возможности скачивать складчины и сливы курсов нужно зарегистрироваться
Возможно, Вас ещё заинтересует:
- Социальный интеллект коуча (Интенсив №4) [Ольга Рыбина]
- Клуб здоровья и молодости 3.0 (уроки 24-31) [Данила Сусак, Аман Атилов]
- [Вязание] Жилет Коко [Юлия Имукина]
- [Вязание] Панама из рафии [anutaknits]
- [Вязание] Свитер Алиса. Интерактивное описание [stepmother.queen] [Ольга Грознецкая]
- [Вязание] Золотая туника [Юлия Имукина]
- [Вязание] Кардиган Лорен [Юлия Имукина]
- Сытно и бюджетно: полноценное питание семьи из трёх человек на 10 000 рублей в месяц + Домашняя молочная продукция в хлебопечке [Марина Макарова]
- [Вязание] Джемпер мужской Денди [Юлия Имукина]
- Вся правда о куркуме: золото против воспаления + Вся правда об имбире: огонь пищеварения [Андрей Попов]