Үлкен тілдік модельдердегі трансформатор архитектурасы

  • Мақсаты: Үлкен тілдік модельдердегі трансформер архитектурасының принциптері мен әдістерін зерттеу және түсіну. Курстың мазмұны табиғи тілді өңдеу (NLP) теориясының негіздерін, трансформатор архитектурасын, оның ішінде зейін механизмін, көп деңгейлі бейнелерді және оқыту механизмдерін зерттеуді қамтиды. Сондай-ақ BERT, GPT сияқты заманауи тілдік модельдер және олардың әртүрлі NLP тапсырмаларында қолданылуы талқыланады. Практикалық іс-әрекеттерге тәжірибелерді үйрену және қолдану кіреді.
  • Образовательная программа 7M06102 Machine Learning & Data Science
  • Несиелер 5
  • Селективті тәртіп
  • Оқу жылы 2
Top