Лин Лин Собрано из исследовательского блога Google Qubit Produced | Публичный аккаунт QbitAI
Проблема развертывания глубокого обучения на мобильных устройствах остается.
Хотя глубокое обучение имеет преимущества в таких задачах, как классификация и обнаружение изображений, повышение точности модели требует высокого энергопотребления и места для хранения, что обычно сложно для мобильных устройств.
Не бойся. Вчера Google выпустила новое поколение мобильной архитектуры MobileNetV2.
Это универсальная нейронная сеть компьютерного зрения, разработанная для мобильных устройств, поддерживающая такие задачи, как классификация и обнаружение изображений, и результаты значительно улучшены по сравнению с моделями предыдущего поколения. Использование возможностей глубокого Интернета на персональных мобильных устройствах расширяет возможности пользователей, предоставляя пользователям доступ в любое время и в любом месте, с дополнительными преимуществами в плане безопасности, конфиденциальности и энергопотребления.
новые возможности
Основываясь на конструктивной идее MobileNetV1, выпущенной в прошлом году, новая модель использует свертку с разделением по глубине в качестве эффективного строительного блока. С точки зрения архитектуры MobileNetV2 представляет две новые функции: одна — линейные узкие места между уровнями, а другая — короткие соединения между узкими местами. Базовая структура показана на следующем рисунке:
БытьБыть△Обзор архитектуры MobileNetV2 | Синие блоки представляют составные модули сверточной архитектуры
Повышение производительности
В целом, MobileNetV2 может достичь той же точности, что и V1, но с более высокой скоростью.
Примечательно, что новая модель вдвое сокращает количество операций, требует на 30% меньше параметров и работает на 30-40% быстрее, чем MobileNetV1 на телефонах Google Pixel, обеспечивая при этом более высокую точность.
БытьБыть△MobileNetV2 повышает скорость (снижает задержку) и увеличивает точность ImageNet Top 1
MobileNetV2 — очень эффективное средство извлечения признаков для задач обнаружения и сегментации объектов. Например, в сочетании с недавно представленным SSDLite он на 35% быстрее достигает той же точности, что и MobileNetV1. Теперь исследователи открыли эту модель в API обнаружения объектов Tensorflow. БытьБыть
Чтобы добиться семантической сегментации на устройстве, исследователи используют MobileNetV2 в качестве экстрактора признаков, чтобы упростить процесс создания новой Mobile DeepLabv3 с моделью мобильной семантической сегментации DeepLabv3.
В тесте семантической сегментации результирующая модель PASCAL VOC 2012 обеспечивает такую же производительность, как и при использовании MobileNetV1 в качестве экстрактора признаков, но требует в 5,3 раза меньше параметров и в 5,2 раза меньше операций.
БытьВ целом, MobileNetV2 предоставляет эффективную модель, ориентированную на мобильные устройства, которая может служить основой для многих задач визуального распознавания.
Скачать
В настоящее время MobileNetV2 выпущен как часть библиотеки классификации изображений TensorFlow-Slim, и пользователи также могут начать изучать и использовать ее в Colaboratory.
Кроме того, MobileNetV2 также доступен в виде модуля на TF-Hub, а предварительно обученные контрольные точки можно найти на GitHub.
Официальное введение в блог: https://research.googleblog.com/2018/04/mobilenetv2-next-generation-of-on.html
Связанные документы: https://128.84.21.199/abs/1801.04381
Адрес кода: https://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet
Библиотека классификации изображений TensorFlow-Slim: https://github.com/tensorflow/models/blob/master/research/slim/README.md
Адрес совместной лаборатории: https://colab.research.google.com/github/tensorflow/models/blob/master/research/slim/nets/mobilenet/mobilenet_example.ipynb
Автор является подписавшим автором аккаунта Netease News Netease «каждый со своим отношением».
—Заканчивать—