В этой статье основное внимание уделяется методам адаптации домена, основанным на состязательном обучении в задачах адаптации домена без учителя, и к конкретным документам относятся: DANN, ADDA, CDAN, TADA, GCAN, DAAN.
1. Базовые знания
-
О трансферном обучении
Что касается трансферного обучения, я рекомендую всем прочитать этот обзор:
- «Обзор трансферного обучения»Авторы: Синно Цзялин Пан, Цян Ян. Опубликовано: 2009 г.
-
определение
В статье «Обзор трансферного обучения» автор определяет трансферное обучение следующим образом: Учитывая исходный домен and learning task , a target domain and learning task , transfer learning aims to help improve the learning of the target predictive function in using the knowledge in and , where , or .
Среди них Домен определяется как, то есть пространство признакови маргинальные распределения вероятностейсостав; Задача определяется как, т.е. по пространству метоки условное распределение вероятностейсочинение.
PS:С непрерывным углублением области трансферного обучения многие названия, использовавшиеся в прошлом, были исключены, или их направленность изменилась, или они стали подобластью трансферного обучения, например: обучение обучению, обучение на протяжении всей жизни, многозадачное обучение и т. д. .
Источник изображения: Обзор трансферного обучения, 2009 г., Синно Цзялин Пан и Цян Ян. -
Подполевое подразделение
В статье «Обзор трансферного обучения» автор разделяет трансферное обучение: индуктивное трансферное обучение, трансдуктивное трансферное обучение, трансферное обучение без учителя. Среди них каждая категория определяется следующим образом:
- Inductive Transfer Learning : Given a source domain and a corresponding learning task , a target domain and a corresponding learning task , inductive transfer learning aims to help improve the learning of the target predictive function in using the knowledge in and , where .
- Transductive Transfer Learning : Given a source domain and a corresponding learning task , a target domain and a corresponding learning task , transductive transfer learning aims to improve the learning of the target predictive function in using the knowledge in and , where and . In addition, some unlabeled target domain data must be available at training time.
- Unsupervised Transfer Learning : Given a source domain with a learning task , a target domain and a corresponding learning task , unsupervised transfer learning aims to help improve the learning of the target predictive function in using the knowledge in and , where and and are not observable.
-
Классификация распространенных методов
- Передача обучения на основе экземпляров: в соответствии с определенными правилами генерации весов вес выборочных данных исходного домена корректируется, чтобы их можно было повторно использовать в процессе обучения целевого домена, чтобы выполнить перенос обучения.
- Передача обучения на основе функций: изучая «хорошее» представление функций (представление функций), разрыв между исходным доменом и распределением объектов целевого домена сужается, тем самым повышая производительность модели в целевом домене. Как определить, является ли выражение изученного признака «хорошим», является ядром этого типа метода.Обычно используемый метод заключается в использовании максимального среднего несоответствия (MMD) в качестве метрики для измерения разницы между распределением признаков исходного домена. и целевой домен.
- Передача обучения на основе параметров: если предположить, что данные в исходном домене и целевом домене могут совместно использовать некоторые параметры модели, общие параметры модели находятся с помощью разработанного алгоритма для выполнения трансферного обучения. Сюда же относится и часто упоминаемая в обыденное время подстройка параметра (Fine-tune), этому экспериментальному обсуждению посвящена статья:«Насколько переносимы функции в глубоких нейронных сетях».
- Трансферное обучение на основе отношений: если предположить, что отношения между данными исходной области аналогичны отношениям между данными целевой области, трансферное обучение выполняется путем изучения взаимосвязи между образцами в исходной области и целевом домене.
-
Об адаптации домена
Что касается адаптации домена, я рекомендую всем прочитать этот обзор:
- Deep Visual Domain Adaptation: A SurveyАвторы: Мэй Ван, Вэйхун Дэн. Опубликовано: 2018 г.
-
определение
В статье «Обзор трансферного обучения» автор указал, что предметная адаптация относится к трансдуктивному трансферному обучению, а именно,. В статье «Глубокая визуальная адаптация предметной области: обзор» автор делит адаптацию предметной области на адаптацию гомогенной предметной области и адаптацию гетерогенной предметной области.,,последний.
Источник изображения: Deep Visual Domain Adaptation: A Survey, 2018, Mei Wang and Weihong Deng. -
Классификация распространенных методов
В статье «Глубокая визуальная адаптация домена: обзор» автор делит методы адаптации домена на три категории следующим образом:
- Адаптация домена на основе несоответствия: используйте данные исходного и целевого домена для тонкой настройки модели, чтобы уменьшить сдвиг домена (сдвиг домена) для адаптации домена.
- Адаптация домена на основе состязательности: посредством противостояния с дискриминатором генератор выравнивает данные исходного домена и целевого домена в пространстве данных или пространстве признаков, чтобы изучить свойства, не зависящие от домена, чтобы выполнить самоадаптацию домена.
- Адаптация домена на основе реконструкции: используйте реконструкцию данных в качестве вспомогательной задачи, чтобы убедиться, что изученные функции остаются неизменными для адаптации домена.
Адаптацию домена на основе несоответствия можно разделить в соответствии с используемыми критериями (Criterion) следующим образом:
- Критерий класса: используйте информацию на этикетке в качестве руководства по миграции. В контролируемом DA, помимо непосредственного использования меток, можно использовать программные метки и метрическое обучение; в полууправляемом DA и неконтролируемом DA можно использовать представление псевдометок и атрибутов.
- Статистический критерий: выровняйте статистическое распределение исходного домена и целевого домена.Обычно используемой метрикой является MMD.
- Критерий архитектуры: улучшите способность модели передавать функции, изменив структуру/параметры модели.
- Геометрический критерий: адаптация домена с использованием геометрических свойств исходного и целевого доменов. Этот критерий предполагает, что геометрическое соотношение исходного и целевого доменов может уменьшить сдвиг домена.
Адаптацию домена на основе состязательности можно разделить в зависимости от того, используется ли генеративная модель или нет, следующим образом:
- Генеративная модель: Используйте генеративные модели.
- Негенеративная модель: не использует генеративную модель.
Адаптацию домена на основе реконструкции можно разделить в зависимости от способа реконструкции данных следующим образом:
- Реконструкция кодировщика-декодера: реконструкция данных с использованием автокодировщиков.
- Состязательная реконструкция: реконструкция данных с использованием генеративно-состязательных сетей.
2. Unsupervised Domain Adaptation by Backpropagation
Ссылка на бумагу:Unsupervised Domain Adaptation by Backpropagation, Опубликовано: ICML 2015
В этом документе состязательное обучение сочетается с адаптацией предметной области и предлагается уровень обратного градиента, поэтому обучение модели не должно быть таким сложным, как процесс обучения GAN. (Эта статья должна быть одним из источников разработки Adversarial Domain Adaptation in Unsupervised Domain Adaptation, и структура текущих общих методов в основном такая же)
Среди них слой инверсии градиента очень легко реализовать, например: используя механизм Hook PyTorch или определяя Backward of Module.
PS :После того, как автор отредактировал и систематизировал статью, он опубликовал журнальную версию статьи:Domain-Adversarial Training of Neural Networks, опубликованный в JMLR. В этом выпуске авторы называют предлагаемую структуру нейронными сетями состязательности домена (DANN).
3. Adversarial Discriminative Domain Adaptation
Ссылка на бумагу:Adversarial Discriminative Domain Adaptation, Опубликовано: ЦВПР 2017
Автор предлагает унифицированную структуру для адаптации состязательного домена и считает, что общие методы адаптации состязательного домена получаются путем изменения различных переменных в структуре, таких как: использование генеративных моделей или дискриминационных моделей, экстракторов исходных доменов и целей. экстрактор признаков домена остается согласованным и т. д. Конкретные детали структуры показаны на следующем рисунке.
Кроме того, на основе этой единой структуры автор предлагает новый метод состязательной дискриминационной адаптации домена (ADDA) для решения проблемы неконтролируемой адаптации домена. По сравнению с унифицированной структурой, предложенной автором, ключевыми моментами этого метода являются: использование дискриминационной модели, неограниченное совместное использование параметров между экстрактором признаков исходного домена и экстрактором признаков целевого домена, а также использование потери GAN.
Процесс обучения ADDA делится на два этапа:
- Исходный CNN и классификатор обучаются с использованием данных изображения и данных метки исходного домена.
- Инициализируйте Целевой CNN с параметрами обученного Исходного CNN. Затем параметры Исходной CNN фиксируются, а Целевая CNN и Дискриминатор обучаются в состязательном режиме с использованием данных изображения и данных метки домена исходного/целевого домена.
Среди них автор объяснил детали конструкции каркаса:
- Почему бы просто не сделать Source CNN и Target CNN равными?
Авторы утверждают, что принуждение модели к обучению симметричным преобразованиям делает оптимизацию менее оптимальной, поскольку одна и та же сеть должна обрабатывать изображения из двух разных доменов.
- Почему бы не заказать напрямую, как DANN?
Автор считает, что такая настройка вызовет проблемы при оптимизации модели, тем более, что дискриминатор на ранней стадии обучения чрезвычайно легко сходится, что приводит к исчезновению градиента.
Целевая функция ADDA показана на следующем рисунке:
PS: Официальный адрес проекта с открытым исходным кодомerictzeng/adda, поддержка Tensorflow; адрес стороннего проекта с открытым исходным кодомcorenel/pytorch-adda, который поддерживает PyTorch.
4. Conditional Adversarial Domain Adaptation
Ссылка на бумагу:Conditional Adversarial Domain Adaptation, опубликовано в: NIPS 2018
Автор считает, что большинство существующих методов не могут эффективно согласовывать мультимодальное распределение разных доменов (Multimodel Distribution), поэтому автор страдает отConditional Generative Adversarial NetworksВдохновленный , предложил структуру условно-состязательной адаптации домена (CDAN) для решения проблемы адаптации неконтролируемого домена.
Среди них структура в основном имеет две новые стратегии корректировки (стратегия кондиционирования): многолинейное обусловливание с использованием выражения признака, извлеченного моделью, и прогнозируемого вектора вероятности результата для извлечения кросс-ковариации (кросс-ковариации), чтобы Отрегулируйте модель; Entropy Conditioning, отрегулируйте неопределенность прогнозируемых результатов модели, чтобы обеспечить ее миграционную способность.
PS: Первый автор этой статьи — доцент Лун Миншэн из Университета Цинхуа.Направление его исследований — трансферное обучение.Если вам интересно, вы можете ознакомиться с ним.Домашняя страница.
- Multi-linear Conditioning
Математическое выражение целевой функции CDAN выглядит следующим образом:
в,Выражается особенностями моделии вектор вероятности прогнозов моделиСопоставлено.
В статье автор вводит два метода отображения: Мультилинейное отображениеи случайная многолинейная карта. Среди них многолинейная карта с умножением матриц.инанести на карту (при условииразмериРазмер, размер конечного результата отображения); Случайная многолинейная карта путем построения случайных пар слоевиДелайте случайное отображение.
Как показано на рисунке ниже, автор дает рекомендации о том, как определить, какой метод картирования использовать:
- Entropy Conditioning
Автор вычисляет значение энтропии вектора вероятности результата предсказания модели и использует его в качестве значения веса функции потерь дискриминатора домена. Автор называет CDAN с помощью Entropy Conditioning CDAN+E, а математическое выражение его целевой функции выглядит следующим образом:
PS :Официальный адрес проекта с открытым исходным кодом этой статьи:thuml/CDAN, поддерживает три платформы глубокого обучения PyTorch/Tensorflow/Caffe.
5. Transferable Attention for Domain Adaptation
Ссылка на бумагу:Transferable Attention for Domain Adaptation, Опубликовано: АААИ 2019
Автор считает, что существующий метод Adversarial Domain Adaptation имеет два недостатка: он напрямую использует глобальные признаки для выравнивания и не учитывает ситуацию, что «переносимость признаков в разных локальных регионах различна»; по умолчанию используются все изображения для transfer, не учитывает ситуацию, что «не все образы подходят для переноса».
Поэтому автор вводит механизм внимания, основанный на существующем методе адаптации состязательного домена, и предлагает новую структуру: переносимое внимание для адаптации домена (TADA), которая используется для решения проблемы адаптации домена без присмотра. В этой структуре авторы используют механизм внимания для выбора локальных областей, которые больше подходят для передачи, и изображений, которые больше подходят для передачи:Transferable Local AttentionиTransferable Global Attention.
PS: Ответственным автором этой статьи является доцент Лун Миншэн из Университета Цинхуа.
- Transferable Local Attention
Автор использует вывод Feature Map последнего сверточного слоя ResNet-50 (его размер) в качестве локального признака, соответственно введите признаки соответствующих регионов в соответствующие дискриминаторы локального домена., получается вероятность того, что каждый регион принадлежит исходному домену. Следовательно, функция потерь Local Transfer Loss дискриминатора локального домена имеет вид:
Затем автор вычисляет соответствующее значение энтропии по значению вероятности локальной области, а затем вычисляет коэффициент внимания соответствующей локальной области:
PS: Лично я считаю, что отрицательный знак в этой формуле должен быть положительным. По задумке автора, внимание той локальной области, которую легче мигрировать, должно улучшаться, а производительность той локальной области, которую легче мигрировать, заключается в том, что ее значение энтропии велико (т. велика), поэтому это должна быть область с большим значением энтропии. , ее коэффициент внимания должен быть больше. Другим доказательством является то, что формула (6) в статье (описывающая коэффициент внимания глобального изображения) противоречит этой формуле.
Кроме того, чтобы избежать негативного влияния неправильного механизма локального внимания на передачу, автор также добавил остаточный механизм для получения конечных локальных признаков:
- Transferable Global Attention
Подобно другим методам, функция потерь Global Transfer Loss глобального дискриминатора домена имеет вид:
PS: Лично думаю, что формула вдолжно быть.
Подобно механизму внимания локальной области, коэффициент внимания глобального изображения также рассчитывается из значения энтропии его значения вероятности:
Таким образом, функция потерь механизма внимания Attentison Entropy Loss имеет вид:
в,для образцаПрогнозируемый класс меток дляВероятность.
PS :Автор обещает в статье, что онTHUML: Machine Learning Groupс открытым исходным кодом, но я не видел соответствующего проекта с открытым исходным кодом. Меня интересуют детали реализации модели, описанной в статье, например: супервизор локального домена, использованный в статьеЗанятые ресурсы, использовать ли GRL (Gradient Reversal Layer, градиентный реверсивный слой), например DANN и т. д.
6. GCAN: Graph Convolutional Adversarial Network for Unsupervised Domain Adaptation
Ссылка на бумагу:GCAN: Graph Convolutional Adversarial Network for Unsupervised Domain Adaptation, Опубликовано: ЦВПР 2019
Автор считает, что в обычных методах адаптации домена часто используются три вида важной информации: структура данных (информация о структуре данных), метка домена (информация о метке домена) и метка класса (информация о метке категории).
- Структура данных: включая предельное распределение вероятностей, условное распределение вероятностей, статистическое распределение данных, геометрию данных.
- Метка домена: назначьте метки исходного/целевого домена образцам, которые обычно используются в методах адаптации состязательного домена.
- Метка класса: в дополнение к информации о метке исходного домена она также включает информацию о псевдометке целевого домена.
Однако большинство методов используют только один или два из них, и для авторов естественно думать о том, как использовать все три для переноса одновременно. Поэтому автор предложил структуру Graph Convolutional Adversarial Network (GCAN) для решения проблемы адаптации неконтролируемого домена.
В соответствии с типом используемой информации инфраструктуру можно разделить на три части: выравнивание с учетом структуры, выравнивание домена, выравнивание центра тяжести класса. Используемая функция общих потерь выглядит следующим образом:
- Domain Alignment
Подобно другим методам состязательной адаптации домена, потеря выравнивания домена:
- Structure-aware Alignment
Автор использует CNN для извлечения функции CNN из изображения и использует анализатор структуры данных (DSA) для извлечения оценки структуры. Функция CNN используется в качестве входных данных GCN, а оценка структуры используется в качестве матрицы смежности. GCN, чтобы получить функцию GCN, которая используется в качестве конечной функции изображения.
PS: прочитайте экспериментальную часть статьи, автор реализует DSA с помощью AlexNet (изменив размерность его окончательного вывода на 1000), так же, как и используемую им CNN. Нет подробного объяснения того, что такое DSA, чем он отличается от используемой им CNN и почему его выходные данные называются оценкой структуры.
Подобно потере триплетов, потеря выравнивания домена, используемая автором, составляет:
- Class Centroid Alignment
Авторы отмечают, что тот факт, что признак обладает доменной инвариантностью и структурной согласованностью, не означает, что он обладает различимостью. Поэтому автор использует центры кластеризации признаков исходной/целевой области, чтобы обеспечить различительную способность изученных признаков.
Поскольку целевой домен не имеет информации о метке, автор использует результат предсказания классификатора в качестве псевдометки (псевдометки) целевого домена. Следовательно, потеря выравнивания класса:
Автор указывает, что идея улучшения различительной способности изученных признаков (или обогащения семантической информации, содержащейся в изученных признаках) путем построения кластерных центров признаков исходной/целевой области исходит из:Learning Semantic Representations for Unsupervised Domain Adaptation(Эта статья была опубликована в ICML 2018, автором-корреспондентом является профессор Чжэн Цзыбинь из Университета Сунь Ятсена, а официальный адрес проекта с открытым исходным кодом:Mid-Push/Moving-Semantic-Transfer-Network). (Личное ощущение и CVPR 2018Unsupervised Domain Adaptation with Similarity LearningИдеи похожи, все они заключаются в улучшении различительной способности модели путем построения центра кластеризации признака, но форма немного отличается)
Что касается гиперпараметров, используемых в статье, авторы отмечают:=1,=0,001,=0,7,(в,равно 10,от 0 до 1).
PS :Соответствующий открытый исходный код не найден.
7. Transfer Learning with Dynamic Adversarial Adaptation Network
Ссылка на бумагу:Transfer Learning with Dynamic Adversarial Adaptation Network, опубликовано на: ICDM 2020
В адаптации домена все методы направлены на согласование предельных или условных вероятностных распределений исходного и целевого доменов или обоих. Однако лишь немногие методы динамически и количественно анализируют относительную важность этих двух факторов для миграции. Поэтому автор исходит из этой идеи и предлагает структуру Dynamic Adversarial Adaptation Network (DAAN) для решения проблемы адаптации неконтролируемого домена.
- Global Domain Discriminator
Функция потерь глобального дискриминатора доменов выглядит следующим образом:
- Local Subdomain Discriminator
Функция потерь Local Subdomain Discriminator выглядит следующим образом:
- Dynamic Adversarial Factor
Автор определяет его расстояние через функцию потерь глобального дискриминатора домена и локального дискриминатора поддомена:
PS: По поводу коэффициента 2 в формуле, я еще не понял его смысла, чувствуюиВот и все.
И рассчитывается по расстоянию между глобальным дискриминатором домена и локальным дискриминатором поддомена.:
Согласно последующему объяснению,чтобыВес:
другими словами,Чем больше значение, тем важнее условное распределение вероятностей, и наоборот, тем важнее маргинальное распределение вероятностей.
Кроме того, отмечается, что расчет функции потерь модели для образцов в целевой области требует использования информации о псевдометках.
PS :Соответствующий открытый исходный код не найден.
8. Рекомендуемые материалы для начала работы
- zhaoxin94/awesome-domain-adaptationПроект организации документов на Github богат по содержанию и понятен по структуре, и позволяет понять процесс разработки DA в последние годы.
-
Зная | Посадка фасоли НаньшаньсяПользователь Zhihu, чья колонкапередача обученияОрганизовано более подробно, стоит прочитать. Среди них рекомендуем к прочтению следующие статьи:
- Протоколы Deep Domain Adaptation (1): передача знаний на основе метки
- Протоколы Deep Domain Adaptation (2): на основе статистических различий
- Материалы по глубокой адаптации домена (3): на основе структурных различий глубокой сети и геометрических различий
- Материалы по глубокой адаптации домена (4): на основе генеративно-состязательной сети GAN
- Материалы Deep Domain Adaptation Proceedings (5): метод миграции, основанный на реконструкции данных
- Proceedings of Deep Domain Adaptation (6): метод обработки несоответствия между функциональными пространствами исходного и целевого доменов
- Чжиху | Ван Цзиньдуна нет домаПользователь Zhihu, чья колонкаУ машины стеклянное сердцеСтатьи из серии «Миграция любви Маленького Ванга» очень подробные (например:Одна из серий «Любовная миграция Маленького Ванга»: введение в метод анализа переноса компонентов (TCA)), стоит прочтения. Пользователь не только организовал актуальную информацию о трансферном обучении:jindongwang/transferlearning, тоже написалКраткий справочник по трансферному обучению, подходит для чтения новичками для простого понимания базовых знаний и общих методов.
Использованная литература: