Компанія Nvidia змогла за 53 хвилини навчити ШІ мовної моделі BERT (модель для обробки і використання природних мов), а вивести результат вийшло за 2 мс. Обидва досягнення є рекордними в галузі.
До цього нікому не вдавалося подолати часовий бар’єр навчання ШІ BERT, а швидкість виведення в галузі трималася на позначці близько 10 мс. NVIDIA досягла такого результату на одній зі своїх ШІ-інфраструктур SuperPOD зі встановленими в ній 92 системами Nvidia DGX-2H, 1472 графічними процесорами V100 SXM3-32GB і десятьма комутаторами Mellanox Infiniband на кожен вузол мережі. Навчання проводилося під керівництвом Nvidia TensorRT – бібліотеки оптимізації глибокого навчання ШІ.
Крім того, компанія створила найбільшу призначену для користувача версію BERT, яка включає в себе 8,3 млрд параметрів. Вона отримала назву Megatron. Також, Nvidia виклала код навчання для цієї моделі.
Leave a Comment