Nvidia совместно с производителями серверов развивает облачные вычисления для задач ИИ
31 мая 2017 18:36 #57465
от ICT
ICT создал тему: Nvidia совместно с производителями серверов развивает облачные вычисления для задач ИИ
Компания Nvidia запустила партнерскую программу с ODM-производителями Foxconn, Inventec, Quanta и Wistron, чтобы быстрее удовлетворить рыночный спрос на облачные вычисления для задач искусственного интеллекта (ИИ). В рамках партнерской программы Nvidia HGX компания предоставляет каждому ODM-производителю ранний доступ к референсной архитектуре Nvidia HGX, технологиям вычислений на GPU и руководствам по проектированию, сообщили CNews в Nvidia. Модель HGX — та же, что применяется и в Microsoft Project Olympus, системах Facebook Big Basin и суперкомпьютерах для задач ИИ Nvidia DGX-1, пояснили в компании. Используя HGX в качестве основы, ODM-партнеры в сотрудничестве с Nvidia могут быстрее создавать и выводить на рынок широкий спектр GPU-ускоренных систем для гипермасштабируемых дата-центров. В рамках программы инженеры Nvidia помогут ODM-производителям сократить время как на проектирование, так и на развертывание систем. С помощью новых GPU на базе архитектуры Nvidia Volta, которая обеспечивает втрое более высокую производительность по сравнению с предшествующей архитектурой, ODM-производители могут удовлетворить рыночный спрос, выпустив новые продукты на базе новейших технологий Nvidia, убеждены в компании. «Ускоренные вычисления развиваются очень быстро — всего за год нам удалось увеличить скорость глубокого обучения для вычислительных ускорителей Tesla втрое. Новые возможности оказывают колоссальное влияние на проектирование новых систем, — заявил Ян Бак (Ian Buck), директор по ускоренным вычислениям в Nvidia. — Благодаря партнерской программе HGX производители устройств могут быть уверены в том, что они предлагают новейшие технологии для работы с искусственным интеллектом растущему сообществу поставщиков систем для облачных вычислений». Nvidia создала референсную архитектуру HGX, чтобы обеспечить производительность и масштабируемость, необходимые для гипермасштабируемых облачных окружений. HGX поддерживает большой спектр конфигураций в зависимости от нагрузки и позволяет объединять графические и центральные процессоры в различных комбинациях для высокопроизводительных вычислений, обучения глубоких сетей и инференса. Стандартная архитектура HGX включает восемь ускорителей Nvidia Tesla в форм-факторе SXM2, объединенных топологией cube mesh с помощью высокоскоростного интерфейса Nvidia NVLink и оптимизированных PCIe-топологий. Благодаря модульному дизайну, HGX-системы могут устанавливаться в существующие дата-центры во всем мире, при необходимости используя гипермасштабируемые CPU-узлы. По информации компании, с HGX совместимы оба ускорителя Nvidia — Tesla P100 и V100. Поэтому системы на базе HGX можно будет обновить сразу же, как только процессоры V100 выйдут на рынок. В целом HGX — это оптимальная референсная архитектура для поставщиков облачных решений, которые хотят перейти на новую платформу Nvidia GPU Cloud, считают в Nvidia. Платформа Nvidia GPU упрощает доступ к полностью интегрированным и оптимизированным фреймворкам глубокого обучения, включая Caffe2, Cognitive Toolkit, MXNet и TensorFlow.
Ссылка на источник
Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.