В 2018 году начнется битва чипов ИИ

искусственный интеллект
В 2018 году начнется битва чипов ИИ

Эта статья написана [Передовая линия ИИ] Оригинал, исходная ссылка:dwz.cn/77k9DJ


Автор | Крис Вильц

Переводчик|Дебра

Редактор | Эмили

Руководство по передовой ИИ:«CPU, GPU, TPU, FPGA, нам сложно судить, какая компания начала войну между ИИ-чипами, и пока рано говорить, кто победит. Но в 2018 году это будет один из производителей чипов. начнется долгосрочная битва за место в аппаратном пространстве ИИ».


В 2017 году, когда Intel представила новейшее оборудование для искусственного интеллекта на выставке Automobility LA в Лос-Анджелесе, это был не знаковый продукт, а всего лишь одна из серии новейших технологий, выпущенных несколькими технологическими гигантами один за другим. предназначен для того, чтобы заложить основу для позиций в аппаратном пространстве ИИ. Потому что сторона, которая победит в области искусственного интеллекта, станет одной из ведущих сил во многих отраслях, включая производство, автомобилестроение, Интернет вещей, медицинское обслуживание и даже развлечения.

Что касается аппаратного обеспечения, то в области ИИ происходит «Игра престолов», когда разные компании борются за превосходство и надеются, что их продукты могут стать стандартом архитектуры чипов для технологий ИИ, особенно глубокого обучения и нейронных сетей.

Аналитики Research and Markets и TechNavio прогнозируют, что мировой рынок микросхем ИИ будет расти в среднем на 54% в год в период с 2017 по 2021 год.

Рагху Радж Сингх, главный аналитик по исследованиям встраиваемых систем в Technavio, сказал, что рыночный спрос на мощное оборудование, способное удовлетворить потребности глубокого обучения, является ключевым фактором, стимулирующим это развитие. "Высокие темпы роста рынка оборудования отражают растущий спрос на аппаратные платформы с высокой вычислительной мощностью, что способствует продвижению алгоритмов глубокого обучения. Растущая конкуренция между стартапами и устоявшимися компаниями приводит к появлению новых продуктов ИИ. и программные платформы, начинает внедрять программы и алгоритмы глубокого обучения».

Запах пороха становится все сильнее и сильнее, и война между производителями ИИ-чипов неизбежна. Искусственный интеллект станет следующим рубежом компьютерного оборудования и, вероятно, самым важным полем битвы за компьютерное оборудование с момента появления мобильных компьютеров и Интернета.

Итак, как мы сюда попали и кто крупные игроки?


CPU

Когда эти беспилотные автомобили 5-го уровня, не требующие участия человека, появятся на дорогах, мы обнаружим, что они станут одними из самых умных и сложных машин, когда-либо созданных. Безусловно, беспилотные автомобили стали одной из главных целей искусственного интеллекта, и производитель микросхем Intel хочет прочно закрепить свои позиции в этой области.

Однако вместо того, чтобы полностью сосредоточиться на внутренних исследованиях и разработках, Intel создает собственные возможности искусственного интеллекта за счет приобретений. В августе 2016 года Intel приобрела Nervana Systems, производителя процессоров для нейронных сетей.

Нейронные сети могут очень эффективно выполнять широкий спектр задач, но для выполнения этих задач сеть должна быть сначала обучена тому, как выполнять задачу. Перед выполнением задачи нейронную сеть необходимо обучить, например, перед выполнением задачи по распознаванию изображений собак нейронную сеть необходимо научить распознавать собак всех видов. Это может означать, что сети необходимо обрабатывать тысячи или даже миллионы изображений собак — задача, которая требует много времени без достаточной вычислительной мощности.

В ноябре 2016 года, через несколько месяцев после приобретения Nervana, Intel анонсировала серию процессоров — Nervana, платформу, предназначенную непосредственно для приложений, связанных с искусственным интеллектом, таких как обучение нейронных сетей. Дайан Брайант, исполнительный вице-президент и генеральный менеджер группы центров обработки данных Intel, сказала: «Мы ожидаем, что платформа Intel Nervana обеспечит революционную производительность и значительно сократит время, необходимое для обучения сложных нейронных сетей. Производительность будет в 100 раз выше, что ускорит темпы инновации в развивающейся области глубокого обучения».

В марте 2017 года Intel совершила громкое приобретение Mobileye, разработчика ADAS для глубокого обучения, на общую сумму около 15 миллиардов долларов. Стратегия Intel по слияниям и поглощениям обрела смысл почти сразу. Производитель чипов надеется закрепиться на рынке беспилотных автомобилей, и эта стратегия позволила ему стать ключевым поставщиком оборудования для машинного обучения.

На выставке Automobility LA, проходившей в Лос-Анджелесе в ноябре прошлого года, генеральный директор Intel Брайан Кржанич заявил, что автономное вождение стало самым большим изменением сегодня, и заявил, что новые продукты Intel SoC и EyeQ5, выпущенные после приобретения Mobileye, больше, чем его Конкурент — платформа глубокого обучения Xavier от Nvidia имеет вдвое большую производительность.

Тера операций в секунду (TOPS) — это общий показатель производительности для высокопроизводительных SoC, а TOPS на ватт можно расширить для описания эффективности производительности. Чем выше соотношение производительности TOPS на ватт, тем выше качество и эффективность чипа. Глубокое обучение TOPS (DL) относится к эффективности операций, связанных с глубоким обучением. Согласно имитационному тесту Intel, соотношение производительности на ватт в TOPS у EyeQ5 составляет 2,4 DL, что более чем вдвое превышает эффективность Nvidia Xavier, а соотношение производительности на ватт в TOPS у Xavier составляет 1 DL.

Дуг Дэвис (Doug Davis), старший вице-президент и генеральный менеджер Intel Autonomous Driving Group (ADG), сказал, что Intel решила сосредоточиться на DL TOPS, потому что Intel хотела сосредоточиться на эффективности процессора, а не на других показателях. «DL TOPS является хорошим показателем энергопотребления, но это также вопрос веса, стоимости и рассеивания тепла, поэтому мы считаем, что в центре внимания находится эффективность», — сказал Дэвис. "

Дэвис добавил: "У нас было много дискуссий об абсолютной производительности, но, если подумать, мы надеемся, что сможем принять более практическую точку зрения, принимая во внимание различные типы рабочих нагрузок. Глубокое обучение способно определить как можно быстрее и эффективнее как можно возражать и принимать решения».

Однако Nvidia оспорила данные Intel, утверждая, что результаты испытаний EyeQ5 основаны на экспериментах по моделированию, тем более что SoC не будет применяться в течение следующих двух лет. Дэнни Шапиро, старший директор автомобильного направления Nvidia, сказал в своем заявлении: «Мы не можем судить о продукте, которого не существует, особенно о том, который не будет доступен до 2020 года. Но теперь мы знаем, что мы запустили в прошлом году, а The Xavier, который будет доступен в 2018 году, будет работать со скоростью 30 TOPS, что лучше, чем 24 TOPS, смоделированных EyeQ5».


Предназначены ли графические процессоры для ИИ?

Случайно производители графических процессоров оказываются у руля технологий, которые могут оказаться в авангарде революции искусственного интеллекта. В то время как графические процессоры используются в качестве дополнения к центральным процессорам (многие процессоры интегрируют графические процессоры в графические процессоры для обработки графики), графические процессоры расширились за пределы области, ориентированной на графику и видео, в область глубокого обучения, и производители графических процессоров заявили о своих продуктах. Производительность намного лучше, чем у ПРОЦЕССОР.

Nvidia заявляет, что ее графический процессор Titan V является самым мощным графическим процессором для глубокого обучения ПК. Изображение предоставлено: Nvidia.


Хотя на рынке представлено довольно много компаний, выпускающих GPU, ни одна из них не является более подходящим синонимом технологии, чем Nvidia. Согласно отчету Jon Peddie Research, Nvidia увеличила поставки графических процессоров на 29,53% в третьем квартале 2017 года, при этом основные конкуренты AMD и Intel потеряли позиции в этом отношении. Поставки AMD увеличились на 7,63%, а поставки Intel — на 5,01%. Конечно, это в основном обусловлено рынком видеоигр, но аналитики Jon Peddie Research считают, что спрос на высокопроизводительные приложения, связанные с добычей криптовалюты, также способствовал росту отгрузок.

Потребность в высокопроизводительных процессорах для задач, таких как майнинг криптовалюты и приложения ИИ, выдвинула графические процессоры на передний план аппаратного обеспечения ИИ. Графические процессоры содержат сотни ядер, которые могут одновременно выполнять тысячи программных потоков и являются более энергоэффективными, чем ЦП. Процессоры более универсальны и более прыгучие, могут выполнять множество задач и хорошо повторяют операции с большими пакетами данных. Графический процессор называется графическим процессором из-за этого ключевого отличия, и он лучше справляется с графикой, потому что обработка графики включает одновременную обработку тысяч небольших вычислений. В то же время такая производительность также делает GPU идеальными для понимания таких задач, как описанное выше обучение нейронной сети.

Буквально в декабре этого года Nvidia анонсировала Titan V, графический процессор для ПК, предназначенный для глубокого обучения. Графический процессор основан на архитектуре Nvidia Volta с использованием новой базовой технологии, которую Nvidia называет тензорными ядрами. В математических терминах тензор определяется как «математический объект, похожий на вектор, но более обобщенный, представленный набором функций пространственных координат». архитектуры.

Titan V содержит 21 миллиард транзисторов, обладает возможностями глубокого обучения для 110 операций с плавающей запятой и предназначен для разработчиков, работающих с искусственным интеллектом и глубоким обучением. Основатель и генеральный директор компании Дженсен Хуанг заявил в пресс-релизе, что Titan V является самым мощным графическим процессором, когда-либо разработанным для персональных компьютеров. «Наше видение Volta состоит в том, чтобы раздвинуть границы высокопроизводительных вычислений и искусственного интеллекта, открывая новые горизонты с новыми архитектурами процессоров, инструкциями, числовыми форматами, архитектурами памяти и связью процессоров. С Titan V мы приносим Volta в руки исследователей и ученых всего мира».


Мир тензоров

Пожалуй, ни одна компания не вникала в концепцию тензоров глубже, чем Google. В 2016 году поисковый гигант выпустил TensorFlow, очень популярную платформу с открытым исходным кодом для глубокого обучения. По словам Google, «TensorFlow — это программная библиотека с открытым исходным кодом для численных вычислений с использованием графов потоков данных. Узлы в графе представляют собой математические операции, а края изображения представляют собой многомерные массивы (тензоры), которые взаимодействуют между собой. Его гибкая архитектура Fabric позволяет пользователям развертывать вычисления на одном или нескольких процессорах или графических процессорах на настольных компьютерах, серверах или мобильных устройствах с использованием единого API».

Tensor Processing Unit (TPU) Google, на котором работают все облачные приложения глубокого обучения компании, является сердцем AlphaGo AI. (Изображение предоставлено Google)


Библиотека приложений машинного обучения TensorFlow включает в себя распознавание лиц, компьютерное зрение и, конечно же, поиск и другие приложения, которые оказались настолько популярными, что в 2016 году Intel сосредоточилась на оптимизации своих процессоров для работы с TensorFlow. В 2017 году Google также выпустила урезанную версию TensorFlow для разработчиков мобильных устройств и Android.

Но цели Google в отношении ИИ не ограничиваются программным обеспечением. В 2016 году компания выпустила первое поколение новых процессоров под названием Tensor Processing Units (TPU). TPU Google — это ASIC, адаптированные для машинного обучения и TensorFlow. В мае 2017 года Google выпустила TPU второго поколения с производительностью до 180 терафлопс.

В июне 2017 года на 44-м Международном симпозиуме по компьютерной архитектуре (ISCA), проходившем в Торонто, Канада, компания Google опубликовала исследовательский отчет о TPU, развернутых в центрах обработки данных с процессорами Intel Haswell, а также в одном и том же центре обработки данных. в центре сравнили и обнаружили, что TPU работает в среднем от 15 до 30 раз быстрее, чем GPU и CPU. TOPS на ватт TPU также примерно в 30–80 раз выше, чем у последних двух. Google говорит, что TPU теперь используются во всех онлайн-сервисах компании, таких как поиск, просмотр улиц, Google Фото и Google Translate.

В документе, подробно описывающем TPU Google, инженеры Google заявили, что потребность в TPU возникла шесть лет назад, когда Google обнаружил, что внедряет глубокое обучение во все больше и больше продуктов. «Если бы люди использовали голосовой поиск Google только три минуты в день, используя процессоры глубоких нейронных сетей, которые мы сейчас используем для обработки систем распознавания речи, нам пришлось бы утроить центры обработки данных Google!» — написали инженеры Google.

Когда инженеры Google проектировали TPU, они сказали, что использовали так называемую «усадочную конструкцию». «Эта конструкция называется «сократимостью» из-за волнообразного потока данных, проходящего через чип, напоминающего то, как сердце качает кровь. Оптимизирован для энергоэффективности и эффективности использования площади, но не подходит для общих вычислений.Это делает инженерный компромисс: жертвуя гибкостью в регистрах, управлении и операциях для более высокой эффективности и плотности операций».

В некоторых высококлассных приложениях ИИ TPU также доказали свою ценность. TPU является «мозгом» знаменитого искусственного интеллекта AlphaGo от Google, который в прошлом году победил чемпиона мира по го, а совсем недавно AlphaGo вышла на поле искусственного интеллекта, доказав, что может стать мастером-мастером го, обучаясь в относительно короткий период времени огромный скачок. После всего лишь нескольких месяцев обучения последняя версия AlphaGo, AlphaGo Zero, стала гораздо более способной, чем люди-эксперты. А победить эксперта в шахматах (сложная игра, но гораздо менее требовательная к вычислениям, чем Го) — дело нескольких часов.


FPGA — темная лошадка в гонке ИИ

Итак, ТПУ — это будущее ИИ, верно? На самом деле это может быть не так быстро. В то время как Nvidia, Google и Intel в той или иной степени сосредоточены на обслуживании ИИ, обработка услуг, предоставляемых их чипами, происходит на устройстве, а не в облаке. Microsoft утверждает, что производительность ее облачной службы искусственного интеллекта на основе FPGA находится на одном уровне или даже выше, чем у Nvidia, Google и Intel. Microsoft считает, что облачное решение на базе FPGA под кодовым названием Project Brainwave превзойдет ЦП, ГП и ТПУ с точки зрения масштабируемости и гибкости.

Project Brainwave от Microsoft работает со скоростью 39,5 терафлопс с задержкой менее 1 миллисекунды при работе на FPGA Intel Stratix 10. (Изображение предоставлено Microsoft/Intel)


Как правило, решения на основе процессоров несколько ограничены конструктивно и могут выполнять только определенные задачи. Однако, поскольку FPGA являются гибкими и перепрограммируемыми, обновление проще, а производительность процессоров выше. По данным Microsoft, Project Brainwave от Microsoft работал со скоростью 39,5 терафлопс при работе на FPGA Intel Stratix 10 с задержкой менее 1 миллисекунды.

Вопрос о том, обеспечивают ли FPGA лучшее решение для ИИ, является спорным, как и любой другой. Microsoft утверждает, что создание специализированных ASIC для ИИ слишком дорого для производства, в то время как другие утверждают, что FPGA никогда полностью не достигнут производительности чипов, разработанных для ИИ.

На Международном симпозиуме по программируемым вентильным матрицам (ISFPGA) в марте некоторые исследователи из лаборатории Intel Accelerator Architecture Lab опубликовали документ, описывающий их понимание двух поколений FPGA Intel (Arria10 и Stratix 10), которые обрабатывают алгоритмы глубоких нейронных сетей. Nvidia Titan X Pascal (процессор Titan V). По словам исследователей Intel: «Результаты показывают, что FPGA Stratix 10 превосходит графический процессор Titan X Pascal на 10 %, 50 % и 50 % с точки зрения операций умножения матриц для сокращенных, Int6 и двоичных DNN соответственно. 5,4x. В Ternary-ResNet FPGA Stratix 10 превосходят графические процессоры Titan X Pascal на 60% и имеют в 2,3 раза более высокую производительность на ватт. Это говорит о том, что FPGA могут стать предпочтительной платформой для ускорения DNN следующего поколения».

Кто носит корону?

В данный конкретный момент времени, с точки зрения общей производительности, трудно не спорить о том, насколько хорошо графические процессоры работают с чипами ИИ. Однако это не означает, что такие компании, как Nvidia и AMD, должны сложить лавры и поверить, что у них есть лучшее решение. Конкуренты, такие как Microsoft, заинтересованы в сохранении своего статус-кво (все центры обработки данных Microsoft основаны на FPGA) и обращают потребителей ИИ на свою точку зрения.

Более того, компании, которые появляются наверху, могут быть не теми, у кого лучшее оборудование, а теми, у кого оно самое лучшее. В то время как беспилотные автомобили становятся убийственным приложением для внедрения ИИ в более широкое общественное сознание, еще слишком рано говорить об этом наверняка. Это может быть прогресс в робототехнике, производстве или даже в сфере развлечений, который действительно продвигает ИИ вперед. И это не для того, чтобы принижать новые приложения, о которых даже не сообщалось и которые еще не разрабатывались.

Когда дым рассеется, это может быть не компания и даже не процессор, который доминирует в ландшафте ИИ. Мы могли бы увидеть в будущем отход от универсального подхода к оборудованию ИИ и увидеть более фрагментированный рынок, где оборудование зависит от приложения. Время покажет, но как только мы доберемся до этого, все наши устройства станут умнее.

Следите за нами в WeChat"Передовая линия ИИ", ответьте "AI" в фоновом режиме, чтобы получить серию электронных книг в формате PDF "AI Frontline".