Магистратура
2025/2026



GPU и распределенные вычисления
Статус:
Курс обязательный (Машинное обучение в цифровом продукте)
Где читается:
Факультет компьютерных наук
Когда читается:
1-й курс, 4 модуль
Охват аудитории:
для своего кампуса
Язык:
русский
Кредиты:
3
Контактные часы:
40
Программа дисциплины
Аннотация
Курс посвящён изучению принципов использования GPU и распределённых вычислений в задачах Data Science и машинного обучения. В рамках дисциплины рассматриваются архитектурные особенности CPU и GPU, модели параллельных вычислений, а также современные подходы к построению высокопроизводительной вычислительной инфраструктуры для обучения и инференса моделей.
В ходе курса студенты изучают основы программирования и эксплуатации GPU-вычислений, знакомятся с ключевыми технологиями и стандартами (CUDA, OpenCL), а также анализируют, за счёт каких факторов достигается ускорение вычислений. Отдельное внимание уделяется архитектуре распределённых GPU-систем, роли сетевых коммуникаций и особенностям масштабирования вычислений в локальных, кластерных и облачных средах.
Существенная часть курса посвящена проектированию, сборке и настройке GPU-кластеров. Рассматриваются вопросы выбора и совместимости аппаратного обеспечения, топологии подключения, систем хранения данных, а также программного стека, включающего операционные системы, драйверы, оркестраторы, планировщики задач и инструменты мониторинга. Студенты получают навыки подготовки технических заданий на проектирование GPU-инфраструктуры под конкретные вычислительные задачи.
Цель освоения дисциплины
- Сформировать у студентов системное понимание принципов использования GPU и распределённых вычислений в задачах Data Science, а также практические навыки проектирования, развёртывания и эксплуатации GPU-инфраструктуры в локальных и облачных средах.
Планируемые результаты обучения
- Понимать принципы GPU- и параллельных вычислений: - Понимать различия между CPU и GPU, их архитектуру и области применения. - Понимать основные модели параллелизма и ограничения GPU-вычислений.
- Применять базовые инструменты GPU-вычислений: - Ориентироваться в подходах к программированию GPU (CUDA, OpenCL). - Запускать и анализировать примеры вычислений на GPU, оценивать их эффективность.
- Понимать принципы распределённых GPU-вычислений: - Понимать архитектуру распределённых GPU-систем и роль сети и коммуникаций. - Понимать различия между локальными, кластерными и облачными GPU-решениями.
- Проектировать и настраивать GPU-инфраструктуру: - Подбирать оборудование и проектировать архитектуру GPU-кластера под задачу. - Понимать принципы настройки, мониторинга и эксплуатации GPU-кластера.
- Оценивать нагрузку и экономику GPU-решений: - Рассчитывать требования к GPU-ресурсам и мощности. - Уметь рассчитать стоимость владения и обосновывать выбор между собственным кластером и облаком.
- Проектировать и анализировать прикладные GPU-решения: - Уметь поставить ТЗ на сбор GPU-кластера. - Оценивать производительность, масштабируемость и эффективность предложенного решения. - Проектировать и запускать мини-кластер.
Содержание учебной дисциплины
- Введение в GPU
- Параллельные вычисления на GPU
- Q@A: практическая сессия по первым шагам сборки кластера
- Распределенные вычисления на GPU
- Сборка GPU-кластера
- Настройка GPU-кластера
- Оценка нагрузки, расчёт мощностей и юнит-экономика
- Q@A: практическая сессия по настройке кластера
- Распределение нагрузки по кластеру
Список литературы
Рекомендуемая основная литература
- Linux для профессионалов : руководство администратора сети : пер. с англ., Кирх, О., 2001
- Параллельные вычисления на GPU : архитектура и программная модель CUDA: учеб. пособие для вузов, Боресков, А. В., 2012
Рекомендуемая дополнительная литература
- Noah Gift, & Alfredo Deza. (2021). Practical MLOps: Vol. First edition. O’Reilly Media.