Следите за новостями и участвуйте в обсуждениях!
Подписывайтесь на
наш Инстаграм,
Телеграм-канал и
присоединяйтесь к чату сообщества — чтобы не пропустить результаты конкурса грантов!
Трансформерные архитектуры в больших языковых моделях
-
Цель: Изучение и понимание принципов и методов работы трансформерных архитектур в больших языковых моделях. Содержание курса включают в себя основы теории обработки естественного языка (NLP), изучение архитектуры трансформеров, включая механизм внимания, многоуровневые представления и механизмы обучения. Также рассматриваются современные языковые модели, такие как BERT, GPT и их применение в различных задачах NLP. Практические занятия включают эксперименты с обучением и использованием.
-
Образовательная программа 7M06102 Machine Learning & Data Science
-
Кредитов 5
-
Селективная дисциплина
-
Год обучения 2