Бакалавриат
2024/2025





Трёхмерное компьютерное зрение
Статус:
Курс по выбору (Прикладная математика и информатика)
Направление:
01.03.02. Прикладная математика и информатика
Где читается:
Факультет компьютерных наук
Когда читается:
4-й курс, 3 модуль
Формат изучения:
без онлайн-курса
Охват аудитории:
для всех кампусов НИУ ВШЭ
Язык:
русский
Кредиты:
4
Программа дисциплины
Аннотация
В курсе даются базовые математические понятия и методы для решения задач трёхмерного компьютерного зрения. Системы трёхмерного компьютерного зрения являются ключевой технологией для робототехники и беспилотного транспорта, автоматизации производственных процессов, дополненной и расширенной реальности, вычислительной фотографии, а также создания 3-х мерного контента для систем компьютерной графики.
Цель освоения дисциплины
- Ознакомление студентов с основами и современными методами компьютерного зрения, включая извлечение семантической и метрической информации из изображений;
- Формирование практических навыков работы с изображениями и решения прикладных задач анализа изображений.
Планируемые результаты обучения
- Владеть аппаратом нейросетевых моделей для классификации изображений
- Владеть методами трёхмерной реконструкции
- Владеть навыками реализации алгоритмов обработки изображений с использованием библиотек для обработки изображений
- Владеть навыками реализации алгоритмов решения задач компьютерного зрения на языке Python с использованием библиотек машинного обучения
- Знать основные методы и задачи обработки и распознавания видео
- Знать основные методы построения признаков изображений
- Знать основные постановки задач компьютерного зрения, процесс формирования изображений, базовые методы тональной коррекции
- Знать основные элементы современных алгоритмов обработки изображений в том числе с использованием состязательных сетей
- Уметь применять и оценивать качество алгоритмов выделения объектов
- Уметь применять методы поиска и сопоставления локальных особенностей
Содержание учебной дисциплины
- Введение в 3D зрение. 3D представления.
- Модель цифровой камеры. Перспективная проекция. Калибровка камеры
- Многовидовая геометрия. Гомография, фундаментальная матрица, триангуляция
- Разреженная многовидовая реконструкция. Задачи Structure-from-motion (SFM) и Simultnaneous Localization and Mapping (SLAM)
- Дифференцируемая графика: прямой и обратный рендеринг
- Дифференцируемая графика: освещение и нейрорендеринг
Элементы контроля
- Проверочные работы
- Практические (лабораторные) задания для выполнения на семинарах и в качестве домашних заданий
- Экзамен
Промежуточная аттестация
- 2024/2025 3rd moduleВ рамках курса предусмотрены проверочные работы на занятиях, практические (лабораторные) задания для выполнения на семинарах и в качестве домашних заданий, и письменный экзамен. Накопленная оценка рассчитывается по формуле O_накопл=0.25 O_проверочные + 0.75 O_лабораторные Оценка за проверочные работы рассчитывается как сумма оценок за все проверочные работы, делённая на максимальную сумму оценок за проверочные, умноженная на 10. Оценка за лабораторные работы рассчитывается как сумма оценок за все лабораторные работы, делённая на максимальную сумму оценок за лабораторные работы, умноженная на 10. Результирующая оценка по дисциплине рассчитывается по формуле O_итог=0.8 O_накопл + 0.2 O_экз Накопленная и итоговая оценки округляются арифметически. Студенты, получившие 8, 9, 10 за накопленную оценку, могут проставить итоговую оценку, равную накопленной, без сдачи экзамена.
Список литературы
Рекомендуемая основная литература
- Richard Szeliski. (2010). Computer Vision: Algorithms and Applications. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.E8FCD1BD
Рекомендуемая дополнительная литература
- Jiao, L., Zhang, F., Liu, F., Yang, S., Li, L., Feng, Z., & Qu, R. (2019). A Survey of Deep Learning-based Object Detection. https://doi.org/10.1109/ACCESS.2019.2939201
- Richard Szeliski. (2006). Image alignment and stitching: a tutorial. Retrieved from http://search.ebscohost.com/login.aspx?direct=true&site=eds-live&db=edsbas&AN=edsbas.46C97F13