Квантизация нейронных сетей/Quantization of neural networks
Использование нейронных сетей с низкой точностью (fp16, int8) увеличивает скорость работы сетей и снижает затраты памяти. Такая конфигурация обеспечивает необходимую вычислительную мощность для работы с искусственным интеллектом. К примеру, в режиме (fp16, int8) нейросеть может обучаться со скоростью до 15,5 тыс. изображений в секунду.
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
► VK:
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
Стримы семинаров - это НЕ видеолекц
42 views
32
13
4 months ago 00:13:16 1
Файнтюнинг и квантизация Llama-3 70B
1 year ago 00:27:26 1
22. Квантизация нейронных сетей. Иван Печенко
1 year ago 01:36:44 1
2. “Ускорение вычислений в нейронных сетях“, Константин Архипенко