Джокер
Администратор
- Регистрация
- 1 Янв 2015
- Сообщения
- 133.845
- Реакции
- 76.337
Складчина: База ML [Тариф 1] [MLinside] [Илья Ирхин, Виктор Кантор, Никита Зелинский]
Ваши результаты после курса: Научитесь строить ML модели на Python и подготовитесь к ML-секции собеседования на Junior
Для кого этот курс
Полные новички и Junior в ML
Аналитики
Сможешь решать рабочие задачи с применением ML, создавать собственные проекты
Разработчики
Быстрее и качественнее будешь приходить к результату, возглавишь ML отдел
Менеджеры
Сможешь свободно общаться с командой на одном языке, самостоятельно оценивать сроки и результаты работы
Перед курсом освежите знания
или попробуйте разобраться с нуля в необходимой для старта базе:
1.Что такое матрицы и как их перемножать
2.Что такое производная и как ее считать
3.Что такое градиент функции, и куда он направлен
4.Что такое матожидание и дисперсия и как их оценивать по выборке
5.Что такое нормальное распределение, откуда оно берется и зачем нужно
6.Как поставить себе на компьютер Jupyter Notebook и как писать на Python циклы, условные операторы, вывод на печать, как и зачем импортировать библиотеки
Программа курса
Модуль 1. Предварительные сведения из математики и программирования
Модуль 2. Алгоритмы машинного обучения
Модуль 3. Оценка качества
Модуль 4. Разбор и практика решений задач с собеседований
Спойлер: Подробно:
Модуль 1. Предварительные сведения из математики и программирования
2 недели
Основы программирования на Python
Как выглядит машинное обучение на Python
Google Colab и локальная установка Python
Работа в Jupyter notebook и запуск Python скриптов через консоль
Синтаксис Python и смысл основных конструкций
Типы данных в Python
Функции
Рекурсия
Циклы: простые применения и избавление от рекурсии
Графики в Python: основы (matplotlib и plotly)
Сложность алгоритмов: что такое O-нотация
Сложность алгоритмов: рекурсия против циклов (с графической иллюстрацией)
Классы
Чтение данных и pandas
Работа с репозиторием: основы
Ваша первая модель и первое соревнование по машинному обучению
Учимся применять LLM в программировании
Математический анализ
Математический анализ в машинном обучении
Функции и их свойства
Предел и производная
Геометрический смысл производной и поиск экстремума
Производная сложной функции
Доп. видео: Как считать производные
Производная и первообразная
Первообразная и интеграл
Линейная алгебра и многомерный анализ
Линейная алгебра в машинном обучении
Векторы
Норма, метрика и скалярное произведение
Матрицы
Операции с матрицами
Матричная запись модели
Многомерный анализ: частные производные и градиент
Применение градиента
Дифференцирование матричных выражений
Теория вероятностей
Дискретная вероятность
Свойства вероятности и условная вероятность
Дискретные случайные величины
Математическое ожидание
Дисперсия
Доп. видео: геометрическая вероятность и непрерывные случайные величины
Непрерывные случайные величины
Центральная предельная теорема
Дмитрий Лялин. Виктор Кантор
Модуль 2. Алгоритмы машинного обучения
Линейные модели 1: лекции
Линейная классификация
Обучение линейных моделей
Борьба с переобучением: регуляризация
Линейные модели в задаче регрессии
Доп. видео 1: Метод опорных векторов (SVM)
Доп. видео 2: Ядра в SVM (Kernel trick)
Доп. видео 3: Двойственная задача в SVM
Линейные модели 2: семинары
Шпаргалка по метрикам
Линейные модели -- 5 строк кода и вы DS
GD для линейной регресии
SGD для классификации
Зачем модифицировать loss? Huber regression
Регуляризация линейных моделей
SVM
Итого, преимущества линейных моделей
Пример линейной модели на текстовой задаче
Статистические тесты
Предпосылки линейной регрессии
Пропуски в фичах
Выбросы и модификация таргета
Робастые регрессии
Деревья и ансамбли 1: лекции
Решающие деревья и ансамбли
Бэггинг над деревьями и случайный лес
Градиентный бустинг
Дополнительное чтение
Деревья и ансамбли 2: семинары
Решающее дерево
Устойчивость решающего дерева
Бэггинг над решающими деревьями
Бустинг vs RandomForest
Bias-variance trade off на практике
Простые методы машинного обучения
Метод k ближайших соседей (kNN)
Наивный байесовский классификатор
Знакомство с обучением без учителя (unsupervised learning)
Задача кластеризации
Метод K средних (K-means)
Иерархическая кластеризация
Понижение размерности пространства признаков
Дополнительное чтение
Знакомство с нейросетями: лекции
Что такое нейронные сети
Обучение нейросетей с помощью SGD
Математическое дополнение: граф вычислений и автоматическое дифференцирование
Обучение нейросетей: backpropagation
Проблемы обучения нейросетей
Введение в нейронные сети: семинары
Подготовка блоков и однослойная сеть
Двухслойная сеть
Pytorch для простой сети и выбор оптимизатора
Виктор Кантор. Никита Зелинский
Модуль 3. Оценка качества
2 недели
Метрики: лекции
Лекция: вступление
Лекция: классификация
Лекция: регрессия
Лекция: пример подбора метрики
Лекция: валидация моделей
Лекция: переход в онлайн
Правильные ответы на тест
Дополнительное чтение
Метрики классификации: семинары
Семинар: основные метрики
Семинар: кривые качества
Семинар: log loss
Метрики регрессии: семинары
Семинар: основные метрики
Семинар: свойства оптимизации
Семинар: усложненные версии оптимизацииВалидация: семинары
Семинар: переобучение
Семинар: подбор гиперпараметров
A/B-тестирование: лекции
Лекция: вступление
Лекция: математический аппарат и основы
Лекция: примеры критериев
Лекция: реалии A/B-тестирования
Лекция: бакетное сэмплирование
Правильные ответы на тест
A/B-тестирование: семинары
Семинар: вступление
Семинар: ЦПТ
Семинар: scipy
Семинар: pvalue
Семинар: сим тесты
Семинар: бакетное сэмплированиеИлья Ирхин
Модуль 4. Разбор и практика решений задач с собеседований
4 недели
Лекции: Вопросы на вывод классических методов машинного обучения и поведение метрик (вопросы вида "объясните почему оптимизация log loss приводит к оценкам вероятностей")
Семинары: Задачи про классические методы и метрики (задачи вида "XGBoost дает негативные прогнозы в регрессии, обучившись только на позитивных примерах, как такое возможно?")
Задания: финальное соревнование по ML и тесты с задачами с собеседований4 неделиСеминары: Задачи на теорию вероятностей и математическую статистику (задачи вида "посчитайте вероятность", "посчитайте матожидание", "примените статистический критерий" и др.)
Тариф 1
Подготовительный + База ML
Модуль подготовки к обучению: математика и основы Python
Модуль базового ML
Практические задачи
Дата старта курса: 13 октября 2025 - 4 поток
Стоимость: 150000 руб.
СКАЧАТЬ СЛИВЫ КУРСОВ
Ваши результаты после курса: Научитесь строить ML модели на Python и подготовитесь к ML-секции собеседования на Junior
Для кого этот курс
Полные новички и Junior в ML
Аналитики
Сможешь решать рабочие задачи с применением ML, создавать собственные проекты
Разработчики
Быстрее и качественнее будешь приходить к результату, возглавишь ML отдел
Менеджеры
Сможешь свободно общаться с командой на одном языке, самостоятельно оценивать сроки и результаты работы
Перед курсом освежите знания
или попробуйте разобраться с нуля в необходимой для старта базе:
1.Что такое матрицы и как их перемножать
2.Что такое производная и как ее считать
3.Что такое градиент функции, и куда он направлен
4.Что такое матожидание и дисперсия и как их оценивать по выборке
5.Что такое нормальное распределение, откуда оно берется и зачем нужно
6.Как поставить себе на компьютер Jupyter Notebook и как писать на Python циклы, условные операторы, вывод на печать, как и зачем импортировать библиотеки
Программа курса
Модуль 1. Предварительные сведения из математики и программирования
Модуль 2. Алгоритмы машинного обучения
Модуль 3. Оценка качества
Модуль 4. Разбор и практика решений задач с собеседований
Спойлер: Подробно:
Модуль 1. Предварительные сведения из математики и программирования
2 недели
Основы программирования на Python
Как выглядит машинное обучение на Python
Google Colab и локальная установка Python
Работа в Jupyter notebook и запуск Python скриптов через консоль
Синтаксис Python и смысл основных конструкций
Типы данных в Python
Функции
Рекурсия
Циклы: простые применения и избавление от рекурсии
Графики в Python: основы (matplotlib и plotly)
Сложность алгоритмов: что такое O-нотация
Сложность алгоритмов: рекурсия против циклов (с графической иллюстрацией)
Классы
Чтение данных и pandas
Работа с репозиторием: основы
Ваша первая модель и первое соревнование по машинному обучению
Учимся применять LLM в программировании
Математический анализ
Математический анализ в машинном обучении
Функции и их свойства
Предел и производная
Геометрический смысл производной и поиск экстремума
Производная сложной функции
Доп. видео: Как считать производные
Производная и первообразная
Первообразная и интеграл
Линейная алгебра и многомерный анализ
Линейная алгебра в машинном обучении
Векторы
Норма, метрика и скалярное произведение
Матрицы
Операции с матрицами
Матричная запись модели
Многомерный анализ: частные производные и градиент
Применение градиента
Дифференцирование матричных выражений
Теория вероятностей
Дискретная вероятность
Свойства вероятности и условная вероятность
Дискретные случайные величины
Математическое ожидание
Дисперсия
Доп. видео: геометрическая вероятность и непрерывные случайные величины
Непрерывные случайные величины
Центральная предельная теорема
Дмитрий Лялин. Виктор Кантор
Модуль 2. Алгоритмы машинного обучения
Линейные модели 1: лекции
Линейная классификация
Обучение линейных моделей
Борьба с переобучением: регуляризация
Линейные модели в задаче регрессии
Доп. видео 1: Метод опорных векторов (SVM)
Доп. видео 2: Ядра в SVM (Kernel trick)
Доп. видео 3: Двойственная задача в SVM
Линейные модели 2: семинары
Шпаргалка по метрикам
Линейные модели -- 5 строк кода и вы DS
GD для линейной регресии
SGD для классификации
Зачем модифицировать loss? Huber regression
Регуляризация линейных моделей
SVM
Итого, преимущества линейных моделей
Пример линейной модели на текстовой задаче
Статистические тесты
Предпосылки линейной регрессии
Пропуски в фичах
Выбросы и модификация таргета
Робастые регрессии
Деревья и ансамбли 1: лекции
Решающие деревья и ансамбли
Бэггинг над деревьями и случайный лес
Градиентный бустинг
Дополнительное чтение
Деревья и ансамбли 2: семинары
Решающее дерево
Устойчивость решающего дерева
Бэггинг над решающими деревьями
Бустинг vs RandomForest
Bias-variance trade off на практике
Простые методы машинного обучения
Метод k ближайших соседей (kNN)
Наивный байесовский классификатор
Знакомство с обучением без учителя (unsupervised learning)
Задача кластеризации
Метод K средних (K-means)
Иерархическая кластеризация
Понижение размерности пространства признаков
Дополнительное чтение
Знакомство с нейросетями: лекции
Что такое нейронные сети
Обучение нейросетей с помощью SGD
Математическое дополнение: граф вычислений и автоматическое дифференцирование
Обучение нейросетей: backpropagation
Проблемы обучения нейросетей
Введение в нейронные сети: семинары
Подготовка блоков и однослойная сеть
Двухслойная сеть
Pytorch для простой сети и выбор оптимизатора
Виктор Кантор. Никита Зелинский
Модуль 3. Оценка качества
2 недели
Метрики: лекции
Лекция: вступление
Лекция: классификация
Лекция: регрессия
Лекция: пример подбора метрики
Лекция: валидация моделей
Лекция: переход в онлайн
Правильные ответы на тест
Дополнительное чтение
Метрики классификации: семинары
Семинар: основные метрики
Семинар: кривые качества
Семинар: log loss
Метрики регрессии: семинары
Семинар: основные метрики
Семинар: свойства оптимизации
Семинар: усложненные версии оптимизацииВалидация: семинары
Семинар: переобучение
Семинар: подбор гиперпараметров
A/B-тестирование: лекции
Лекция: вступление
Лекция: математический аппарат и основы
Лекция: примеры критериев
Лекция: реалии A/B-тестирования
Лекция: бакетное сэмплирование
Правильные ответы на тест
A/B-тестирование: семинары
Семинар: вступление
Семинар: ЦПТ
Семинар: scipy
Семинар: pvalue
Семинар: сим тесты
Семинар: бакетное сэмплированиеИлья Ирхин
Модуль 4. Разбор и практика решений задач с собеседований
4 недели
Лекции: Вопросы на вывод классических методов машинного обучения и поведение метрик (вопросы вида "объясните почему оптимизация log loss приводит к оценкам вероятностей")
Семинары: Задачи про классические методы и метрики (задачи вида "XGBoost дает негативные прогнозы в регрессии, обучившись только на позитивных примерах, как такое возможно?")
Задания: финальное соревнование по ML и тесты с задачами с собеседований4 неделиСеминары: Задачи на теорию вероятностей и математическую статистику (задачи вида "посчитайте вероятность", "посчитайте матожидание", "примените статистический критерий" и др.)
Тариф 1
Подготовительный + База ML
Модуль подготовки к обучению: математика и основы Python
Модуль базового ML
Практические задачи
Дата старта курса: 13 октября 2025 - 4 поток
Стоимость: 150000 руб.
СКАЧАТЬ СЛИВЫ КУРСОВ
Для возможности скачивать складчины и сливы курсов нужно зарегистрироваться
Возможно, Вас ещё заинтересует:
- Точка глобального разлома [Владимир Левченко]
- Испанские глаголы: магия приставок [Гоар Карапетян]
- Пособия по современной испанской лексике: Libro del alumno + Libro del trabajo [Тариф Две части] [Анна Шалагинова, Мануэль Гомес-Пейна]
- Гайд-тренажер по прошедшим временам [Анна Шалагинова]
- Живая. Сексуальность, флирт и женственность [Анна Риттер, Сергей Воронцов]
- Карта желаний Pro [Тариф карта желаний для себя] [5 prism] [Юрий Мурадян]
- UA Manager 2026: Facebook & Google Ads на максимуме [Тариф Базовый] [Дмитрий Гущин]
- Мафия продаж [Глеб Фостенко]
- Юрист по потребительским спорам [Тариф Запись] [Школа права] [Наталья Ситникова] [Повтор]
- [Фокусы] Ничего [Сергей Полевов, Александр Шишук]