Вектор отражает семантику слова – word2vec! Лекция 2 по NLP.
Word2vec – гениальный алгоритм обработки естественного языка, который, на мой взгляд, был стартом для self-supervised learning, только тогда слов таких не было.
Неожиданные свойства векторных представлений!
00:00 Вступление
02:00 Что было в прошлой лекции – кратко
06:51 Векторные представления слов: Word Embeddings
08:30 Word2vec: Continuous Bad-of-Words
16:22 Word2vec: Skip-gram
30:29 Skip-gram: Negative Sampling
39:45 Skip-gram: Hierarchical Softmax
42:52 Сэмплирование слов при обучении
44:48 Свойства получаемых векторных представлений
Евгений Разинков -- к.ф.-м.н., руководитель отдела машинного обучения и компьютерного зрения Группы компаний FIX, преподаватель Казанского федерального университета, сооснователь и директор по науке компании Pr3vision Technologies, основатель и CEO парфюмерного AI-стартапа .
Информация о лекциях:
Телеграм-канал с анонсами, связанными с моей деятельностью:
1 view
229
214
2 months ago 00:09:16 1
Русская механика 50 лет истории
2 months ago 01:31:14 1
Как быть в руках своей Души. Прошлые жизни и что после смерти | Алексей Кройтор