Мало знаний, большой вызов! Эта статья участвует в "Необходимые знания для программистов«Творческая деятельность.
Неконтролируемые подписи к изображениям Примечания к чтению
"Неконтролируемое добавление подписей к изображениям" – это документ о направлении подписей к изображениям, который был включен в 2019CVPR. Недавно я читал этот документ, поэтому сделал пометку о документе. Если что-то не так, вы можете обсудить это в комментарии. площадь.
1. Abstarct
Большинство современных моделей подписей к изображениям в значительной степени полагаются на парные наборы данных «изображение-предложение», но их получение стоит дорого, поэтому в этой статье авторы впервые пробуют неконтролируемую модель. Модель требует набора изображений, корпуса и визуального детектора. В то же время, поскольку большинство существующих корпусов используются для языковых исследований и имеют мало отношения к изображениям, автор просканировал крупномасштабный корпус описания изображений, включающий 2 миллиона предложений на естественном языке.
2. Introduction
Изображение, которое появляется в этой оригинальной статье, описывает концептуальную разницу между существующими моделями подписи к изображению:
- Рисунок а относится к обучению с учителем, для обучения которого требуются пары «изображение-предложение».
- Рисунок b относится к созданию подписей для объектов, которые не существуют в парах изображение-предложение, но существуют в наборах данных распознавания изображений, так что новые объекты могут быть введены в предложения.
- Рисунок c относится к обобщению переноса того, что было изучено из существующих пар «изображение-предложение», в непарные данные. Таким образом, парные данные изображения-предложения не используются для обучения новой модели.
- Рисунок d относится к преобразованию изображения в предложение на опорном языке (китайском) и последующему переводу опорного языка на целевой язык (английский).
- Рисунок e относится к использованию структуры полуконтролируемого обучения, в которой для предварительного обучения используется внешний корпус текстов.
- Рисунок f представляет собой модель обучения без учителя, предложенную автором этой статьи.
В этой модели есть три ключевых шага:
- Мы обучаем языковую модель на корпусе предложений, используя метод генерации состязательного текста, который генерирует предложения с заданными характеристиками изображения. Потому что в неконтролируемом случае у авторов нет правильного описания обучающих изображений. Поэтому мы используем состязательное обучение для генерации предложений.
- Чтобы гарантировать, что сгенерированные подписи содержат то, что есть на изображении, авторы передают знания, предоставленные визуальным детектором, в модель, то есть получают вознаграждение, когда слова, соответствующие визуальным понятиям, обнаруженным на изображении, появляются в сгенерированных предложениях.
- Для данного признака изображения мы можем декодировать заголовок, который в дальнейшем можно использовать для восстановления признаков изображения. Точно так же мы можем использовать кодирование предложений из корпуса, а затем реконструировать предложения. Благодаря двунаправленной реконструкции сгенерированные предложения представляют семантическое значение изображения, тем самым улучшая модель.
В целом, есть четыре вклада в эту статью:
- Экспериментируйте с неконтролируемыми подписями к изображениям
- Предлагаются три цели для обучения моделей подписи к изображению.
- Предложите использовать немаркированные данные для конвейера инициализации
- Сканирует 2 миллиона предложений с отличными результатами
3. Unsupervised Image Captioning
Для неконтролируемой модели подписи к изображению в статье требуется набор изображений.={,, } и набор предложений={,, } Так же, как и существующий визуальный детектор, важно отметить, что предложения получены из внешнего корпуса и не имеют отношения к картинкам.
3.1 The Model
На приведенном выше рисунке показаны основные компоненты модели, включая кодировщик изображений, генератор генератора предложений и дискриминатор-дискриминатор предложений.
Encoder
Кодер в этой статье использует сеть Inception-V4, которая представляет собой тип CNN, который кодирует входное изображение в представление функции.:
Generator
В этой статье LSTM используется в качестве генератора для кодирования. В каждый момент LSTM выводит вероятность слова на основе характеристик изображения и ранее сгенерированных слов.
где FC представляет полносвязный слой, ~ представляет операцию выборки, n — длина сгенерированного предложения,представляет матрицу встраивания слов, авход LSTM,является горячим векторным представлением сгенерированного слова,^g^ — скрытое состояние LSTM,- вероятность словаря на шаге t,икаждый представляет флаги начала (SOS) и конца (EOS) предложения,^g^ инициализируется 0, в неконтролируемой модели этой статьи,из распределения вероятностейвыборка.
Discriminator
Дискриминатор, используемый в этой статье, также реализован LSTM, чтобы различать, является ли предложение реальным предложением в корпусе или сгенерировано моделью.
^d^ — скрытое состояние LSTM,представляет сгенерированное частичное предложение = [······] Вероятность того, что дискриминатор считается истинным предложением. Точно так же, учитывая реальное предложение S из корпуса, дискриминатор выдает(1 Это относится к вероятности того, что неполное предложение, составленное из первых t слов предложения S, будет расценено дискриминатором как истинное.
3.2 Training
В этой статье авторы определяют три цели, чтобы сделать неконтролируемые модели возможными:
3.2.1 Adversarial Caption Generation
Автор использует состязательную тренировку, чтобы сделать сгенерированные предложения более реалистичными. Автор дает генератору состязательное вознаграждение на каждом временном шаге, значение которого равно
Для дискриминатора соответствующая функция состязательных потерь имеет вид
Нам нужно сделать переднюю часть, чем лучше, чем меньше, тем лучше.
3.2.2 Visual Concept Distillation
Чтобы сгенерированное предложение было связано с изображением, автор вводит вознаграждение, называемое концептуальным вознаграждением, которое генерируется, когда слово, сгенерированное моделью, обнаруживает соответствующее визуальное понятие на изображении. Для изображения дается набор понятий и значений достоверности:
вобнаружено t-е понятие, и- соответствующий показатель достоверности. для t-го сгенерированного словаКонцептуальная награда
где функция() является индикаторной функцией, т. е. когда в формуле=Значение функции 1, в противном случае 0.
3.2.3 Bi-directional Image-Sentence Reconstruction
Для того чтобы полученное предложение лучше отражало картину, автор предлагает образ и предложение скрытому пространству, заставляя их реконструировать друг друга.
Image Reconstruction
Этот шаг должен сделать сгенерированные предложения более соответствующими изображению, в этой статье авторы решили реконструировать особенности изображения, а не все изображение. На приведенном выше рисунке дискриминатор можно рассматривать как кодировщик предложений.В конце дискриминатора находится полностью подключенный слой для преобразования конечного состояния скрытого слоя.^d^ проецируется в пространство, общее для изображений и предложений
где x' можно далее рассматривать как признаки изображения, реконструированные из сгенерированных предложений. После этого авторы определяют дополнительную функцию потерь реконструкции изображения
Таким образом, вознаграждение за реконструкцию изображения можно определить как
Sentence Reconstruction
Дискриминатор может кодировать предложение и проецировать его в публичное пространство, которое можно рассматривать как представление изображения, связанное с данным предложением. Функция кросс-энтропийных потерь для реконструкции предложения может быть определена как
в^ представляет t-е слово в предложении.
3.2.4 Integration
Модель обучения рассматривает три цели. Для генератора автор использует градиент политики для обучения, Градиент политики оценивает градиент обучаемых параметров на основе совместного вознаграждения, Совместное вознаграждение включает в себя состязательное вознаграждение, концептуальное вознаграждение и вознаграждение за реконструкцию изображения. В дополнение к градиенту, оцениваемому с помощью градиента политики, потери при реконструкции предложения также обеспечивают градиент для генератора посредством обратного распространения ошибки. Оба типа градиентов используются для обновления генератора. сделатьУказывает обучаемые параметры в генераторе, затем оГрадиент
вкоэффициент затухания,является эталонным вознаграждением с использованием алгоритма самокритики,,,Оба являются гиперпараметрами, которые контролируют веса. Для дискриминатора потери состязательности и реконструкции объединяются для обновления параметров с помощью градиентного спуска:
Во время обучения генератор и дискриминатор обновляются поочередно.
3.3 Initialization
Автор предлагает метод инициализации конвейера для предварительной подготовки генератора и дискриминатора.
Для генератора автор создает псевдозаголовок для каждого изображения, а затем использует пару изображение-заголовок для инициализации модели, которая включает в себя следующие четыре шага:
- Сначала создайте словарь понятий, включающий все целевые классы в наборе данных OpenImage;
- На втором этапе мы используем корпус для обучения модели «концепция-предложение» (con2sen), учитывая предложение. Я использую однослойный LSTM для кодирования понятийных слов в предложение, чтобы получить вектор признаков, а затем использую еще один декодер Layer LSTM для декодирования этой функции, чтобы получить целое предложение;
- На третьем этапе мы используем существующий детектор понятий для обнаружения понятия, включенного в каждое изображение.Используя обнаруженное понятие и модель «понятие-предложение», мы можем создать псевдозаголовок для каждого изображения;
- На четвертом этапе мы используем эти псевдопары «заголовок-изображение» для обучения генератора.
Для дискриминатора параметры инициализируются путем обучения модели генерации состязательных предложений на корпусе.
4. Experiments
Автор использует изображения из набора данных MSCOCO в качестве набора изображений (за исключением субтитров) и создает корпус, просматривая описания изображений Shutterstock (иностранный веб-сайт изображений). Модели обнаружения объектов, обученные на OpenImages, используются в качестве детекторов визуальных понятий.
4.1 Shutterstock Image Description Corpus
Каждое изображение на Shutterstock сопровождается описанием, а в качестве ключевых слов для поиска авторы использовали названия 80 категорий объектов в наборе данных MSCOCO, всего авторы собрали 2 322 628 различных описаний изображений.
4.2 Experimental Settings Following
Скрытое измерение и общее пространственное измерение LSTM установлены на 512.,,установлены на 10, 0,2 и 1.установлен на 0,9. Автор использует оптимизатор Adam для обучения модели, установив скорость обучения на 0,0001. Во время инициализации авторы используют Адама и устанавливают скорость обучения на 0,001, чтобы минимизировать перекрестную потерю энтропии. Используйте поиск луча при создании подписей на этапе тестирования и установите размер луча равным 3.
Если вы считаете, что этот блог полезен, пожалуйста, поставьте мне лайк, и если у вас есть что-то, вы можете обменяться им в области комментариев~