Нажмите выше"Машинное обучение и генеративно-состязательные сети", обратите внимание на "звездочку"
Получите удовольствие, удовольствие, передовые галантерейные товары!
Я не знаю, где я сегодня, я видел этоMSG-GANБылCVPR2020Получение, на самом деле, я видел в мае или июне 2019 года в прошлом году.В то время я попробовал открытый исходный код, и эффект, на мой взгляд, был хорошим. сегодняминималистскийПоделиться.
Кроме того, меня вчера пригласили открыть функцию платного чтения, ха-ха, я видел, что некоторые большие V уже начали ее пробовать.Я просто хочу попробовать и посмотреть, как это работает, не говори мне, текст полностью отобразился, это не должно мешать чтению~ хахаха
MSG-GAN: Multi-Scale Gradient GAN for Stable Image Synthesis
А. Р. Уэст В. Мытый Search.top/PDF/1903.06…
github.com/ akanimax/msg-stylegan-tf
\
Генеративно-состязательные сети (GAN) и их варианты добились больших успехов в задачах синтеза изображений, но, как известно, их сложно адаптировать к различным наборам данных, отчасти из-за нестабильности во время обучения и чувствительности к гиперпараметрам. Распространенное мнение об этой нестабильности состоит в том, что градиенты, возвращаемые дискриминатором обратно в генератор, неинформативны, когда наборы поддержки истинного и сгенерированного распределений недостаточно перекрываются.
В этой работе предлагается многомасштабная градиентно-генерирующая состязательная сеть (MSG-GAN), простое, но эффективное средство для обеспечения градиентов от дискриминатора к генератору в нескольких масштабах. Это обеспечивает стабильный метод обучения для синтеза изображений с высоким разрешением, а также альтернативу широко используемому прогрессивно растущему ProGAN. Авторы показывают, что MSG-GAN может стабильно сходиться, используя один и тот же набор гиперпараметров для наборов данных разных размеров, разрешений и доменов изображений, а также с различными типами функций потерь и сетевых структур. По сравнению с современными GAN этот метод в большинстве случаев имеет преимущества.
Метод по-прежнему очень прост и понятен.Структура сети выглядит следующим образом:
Детали реализации:
Среди них используется набор данных, как показано выше, среди которых 3 тысячи индийских знаменитостей созданы автором самостоятельно. Для каждого набора данных 512-мерный шум выбирается из распределения Гаусса для генерации. Более подробные настройки параметров см. в исходном тексте.
эксперимент:
На изображении 256X256:
На изображении 1024x1024:
**
**
**
**
**
**
Эксперимент по устойчивости к скорости обучения:
**
**
Соединение различных уровней размера обеспечивает исследование градиентной абляции и исследование функции потерь:
Некоторые ограничения:
При прогрессивном пошаговом обучении (типа ProGAN) итерации обучения выполняются быстрее при более низких разрешениях, в то время как каждая итерация MSG-GAN занимает одинаковое количество времени.
На наборах данных о лицах FFHQ и CelebAHQ качество генерации StyleGAN не превосходит. Этому есть много причин, в том числе плохой выбор гиперпараметров или тот факт, что архитектура StyleGAN лучше подходит для этих наборов данных.
Кроме того, из-за многомасштабной модификации в MSGStyleGAN метод не может использовать трюк с регуляризацией смешивания [14].