Word embedding: методы векторных представлений слов // курс «Natural Language Processing (NLP)»
На занятии вы узнаете про алгоритмы word embedding (векторных представлений слов) и то, как они применяются в NLP. Мы поговорим о знаменитом алгоритме Word2Vec и применим его на практике.
Кому подходит этот урок:
- Практикующим Data Scientist и ИТ-специалистам, которые хотят глубже погрузиться в область NLP
- Тем, кто хочет узнать, что делает ChatGPT такой умной
- Людям, освоившими основы машинного обучения, но желающими развиваться в области DS
Результаты урока: Вы узнаете, что такое векторные представления слов, изучите алгоритм word2vec, научитесь его применять на практике.
«Natural Language Processing (NLP)» -
Преподаватель: Мария Тихонова - PhD Computer Science, Senior Data Scientist SberDevices, преподаватель ВШЭ, автор канала
Подключайтесь к обсуждению в чате -
Пройдите опрос по итогам мероприятия -
Следите за новостями проекта:
- Telegram:
- ВКонтакте:
- LinkedIn:
- Хабр:
80 views
121
29
3 months ago 00:26:10 1
Attention in transformers, visually explained | Chapter 6, Deep Learning
3 months ago 00:27:14 1
How large language models work, a visual intro to transformers | Chapter 5, Deep Learning
4 months ago 00:26:59 1
The Origin of the Samaritans: Why They Were So Hated? #samaritans
4 months ago 00:01:14 1
Warped Space and Time Around Colliding Black Holes
4 months ago 00:02:24 1
Lesson 17 季节 Season | Learn Most Common Chinese Words #hsk3 #chinese #learnchinese #language