Автор | Голубь
В своем выступлении Дженсен Хуанг упомянул, что BAT внедрила графические процессоры NVIDIA Volta в свои соответствующие облачные сервисы, и что исследователи и стартапы теперь также арендуют самую передовую инфраструктуру искусственного интеллекта в облаке, устраняя сложность и затраты на создание суперкомпьютеров.
Кроме того, он также упомянул, что Huawei, Inspur и Lenovo внедрили серверы графических процессоров NVIDIA на базе HGX, а для предприятий, которым требуются выделенные суперкомпьютеры с искусственным интеллектом, NVIDIA сотрудничает с крупными китайскими системными интеграторами, чтобы предоставить полностью оптимизированные серверы.
Он отметил, что NVIDIA будет активно инвестировать в продвижение «унифицированной архитектуры» вычислений CUDA GPU. В рамках программы Inception 1900 стартапов получат поддержку для создания будущего искусственного интеллекта.
Что касается дизайна сети, Хуан Ренсюнь подчеркнул, что платформа логического вывода ИИ должна иметь возможность программирования для работы с самыми разнообразными и развивающимися сетевыми архитектурами. Новые архитектуры, более глубокие сети и новые многоуровневые конструкции будут продолжать улучшать производительность CNN.
Кроме того, он также продемонстрировал NVIDIA Drive, платформу автономного вождения, Xavier, первый в мире процессор для автономных машин, и Isaac Lab, среду моделирования, способную обучать роботов в реальном времени.
Наиболее ожидаемым является анонс Хуанга Ренсюня о NVIDIA TENSORRT 3.
TensorRT — это первый в мире программируемый ускоритель логического вывода на основе ИИ, который можно программировать, поддерживает все платформы и ускоряет существующие и будущие сетевые архитектуры. Он компилируется в широкий спектр целевых графических процессоров CUDA, от 120 TOPS до 1 TOPS и от 250 Вт до менее 1 Вт.
TensorRT — это оптимизированный компилятор нейронной сети для графических процессоров CUDA, который использует набор инструкций глубокого обучения CUDA для создания среды выполнения. Он определяет наилучшую стратегию для каждого целевого графического процессора, оптимизируя числовую точность, удаляя и объединяя сетевые слои и тензоры, быстрые ядра и управление памятью. От облака, центра обработки данных, ПК, автомобиля до робота — оптимальная среда выполнения может быть скомпилирована на всех платформах NVIVIA.
Затем он много раз повторил в своем выступлении фразу о том, что ГПУ экономит деньги, что вызвало смех в зале.
То есть, когда Мастер Хуан был на сцене, «поучая страну и ругая Фан Цю», многие люди в Интернете сосредоточили свое внимание на его кожаной куртке.
«В прошлом году также была кожаная куртка. Я действительно питаю слабость к кожаным курткам. Пожалуйста, найдите адрес на Taobao».
«Кожаная куртка — настоящий боевой жилет Желтого лидера».
«Мастер Хуан, вы тоже носите кожаную одежду, чтобы сражаться летом?»
Что касается сегодняшней конференции GTC, многие инсайдеры отрасли отметили, что она была гораздо менее взрывной, чем предыдущая конференция GTC в Соединенных Штатах.В то время было действительно здорово анонсировать архитектуру Volta!
Что ж, ниже приводится запись речи Лао Хуанга на месте происшествия для справки: