• A
  • A
  • A
  • АБB
  • АБB
  • АБB
  • А
  • А
  • А
  • А
  • А
Обычная версия сайта
2025/2026

Дизайн современных LLM

Статус: Маго-лего
Когда читается: 3 модуль
Охват аудитории: для своего кампуса
Язык: русский
Кредиты: 3
Контактные часы: 28

Программа дисциплины

Аннотация

Дисциплина является логическим продолжением курса “Основы NLP” и посвящена устройству современных больших языковых моделей (LLM) и практикам их применения в реальных задачах. Курс рассматривает LLM как масштабируемый трансформер и проходит ключевые этапы жизненного цикла модели: подготовку данных и предварительное обучение, дообучение по инструкциям и параметро-эффективную адаптацию (LoRA/QLoRA), выравнивание по предпочтениям (RLHF/DPO), построение систем “поиск и генерация” (RAG), а также инструментов и агентных сценариев вокруг модели, оценку качества и безопасности, а также ускорение и развертывание моделей.
Цель освоения дисциплины

Цель освоения дисциплины

  • Сформировать у студентов системное представление о том, как проектируются, обучаются, адаптируются и внедряются современные LLM: от архитектурных решений и данных до alignment, оценивания и продакшен развертывания.
Планируемые результаты обучения

Планируемые результаты обучения

  • ● Объяснять ключевые компоненты архитектуры больших языковых моделей (декодерный трансформер, токены, позиционные кодировки, варианты механизма внимания) и компромиссы масштабирования.
  • ● Проектировать пайплайн обучения небольшой языковой модели: подготовка и очистка данных, токенизация, предварительное обучение на предсказание следующего токена, мониторинг и базовая оценка.
  • ● Выполнять дообучение по инструкциям и адаптивную настройку языковой модели (LoRA/QLoRA), подбирать данные и формат инструкций, контролировать переобучение.
  • ● Понимать базовые методы выравнивания по предпочтениям: данные предпочтений, обучение с подкреплением на обратной связи (RLHF) и оптимизация по предпочтениям (DPO/ORPO) на практике.
  • ● Оценивать качество, устойчивость и безопасность LLM: строить воспроизводимый бенчмарк, проводить абляции, выполнять диагностику ошибок и интерпретацию поведения модели (вклад контекста и источников, признаки “галлюцинаций”).
  • ● Собирать и улучшать системы “поиск и генерация” (RAG): эмбеддинги, разбиение на фрагменты, поиск, переранжирование, шаблоны запросов; интегрировать вызов функций и инструментов.
  • ● Оптимизировать инференс и развертывание LLM: пакетирование запросов, кэш ключей-значений, квантизация, спекулятивное декодирование; основы сервинга и оценка задержки/пропускной способности.
Содержание учебной дисциплины

Содержание учебной дисциплины

  • Введение в LLM как масштабируемый трансформер: архитектура, токенизация, законы масштабирования и современные тренды (MoE, длинный контекст, мультимодальность - обзор).
  • Данные и обучение: корпуса, очистка и дедупликация, токенизация, предварительное обучение на предсказание следующего токена; дообучение по инструкциям (SFT) как переход к прикладным задачам.
  • Адаптивная настройка языковой модели: LoRA/QLoRA, выбор задачи и формата данных, стабильность обучения и контроль качества.
  • Выравнивание и безопасность: предпочтения, reward‑modeling и RLHF (обзор), DPO/ORPO (практика), основы “красной команды” (red teaming) и базовые ограничения безопасности.
  • Оценка, диагностика и интерпретируемость: наборы задач, автоматическая оценка и оценка с помощью LLM (LLM‑as‑a‑judge), воспроизводимость, абляции, анализ ошибок и вклад контекста/источников.
  • RAG и системы вокруг LLM: эмбеддинги, разбиение на фрагменты, поиск и переранжирование, управление контекстом, вызов функций/инструментов и основы агентных пайплайнов.
  • Инференс и развертывание: сервинг (vLLM и аналоги), пакетирование, кэш ключей-значений, квантизация и компрессия, спекулятивное декодирование, измерение задержки/пропускной способности, практический бенчмарк.
Элементы контроля

Элементы контроля

  • неблокирующий Домашнее задание 1.
    Адаптация LLM под задачу: дообучение по инструкциям и/или адаптивная настройка (LoRA/QLoRA), сравнение с базовой моделью, отчёт по метрикам и анализу ошибок.
  • неблокирующий Домашнее задание 2.
    На выбор формата: а) соревнование по задаче текстовой генерации; b) проект: прототип “мини‑ChatGPT” (RAG + tools + eval + inference‑оптимизации).
Промежуточная аттестация

Промежуточная аттестация

  • 2025/2026 3rd module
    0.4 * Домашнее задание 1. + 0.6 * Домашнее задание 2.
Список литературы

Список литературы

Рекомендуемая основная литература

  • Elementary statistics : a step by step approach, Bluman, A. G., 2007

Рекомендуемая дополнительная литература

  • Essentials of statistics for the behavioral sciences, Gravetter, F. J., 2014

Авторы

  • Бурлова Альбина Сергеевна
  • Ахмедова Гюнай Интигам кызы