Трансформерные архитектуры в больших языковых моделях

  • Цель: Изучение и понимание принципов и методов работы трансформерных архитектур в больших языковых моделях. Содержание курса включают в себя основы теории обработки естественного языка (NLP), изучение архитектуры трансформеров, включая механизм внимания, многоуровневые представления и механизмы обучения. Также рассматриваются современные языковые модели, такие как BERT, GPT и их применение в различных задачах NLP. Практические занятия включают эксперименты с обучением и использованием.
  • Образовательная программа 7M06102 Machine Learning & Data Science
  • Кредитов 5
  • Селективная дисциплина
  • Год обучения 2
Top