Исследование проблем объединения нескольких наборов данных

искусственный интеллект база данных
Исследование проблем объединения нескольких наборов данных

Недавно Ou Mingfeng из Университета Чжэцзян поделился «Исследование и исследование и исследование данных» в сообществе TechBeat Iteachial Intelligence. Общий контентСетка ТитанВо время стажировки он завершил документ «Объединение наборов данных посредством увеличения данных в пространстве меток для нейронных сетей» в сотрудничестве с научным консультантом Чжао Цзюньбо, генеральным директором Цуй Юнкаем и руководителем алгоритмов Сюэ Линьцзи. Диссертация основана наИсследование открытого набора данных Gewuti было успешно включено в ICML, главное собрание по машинному обучению в 2021 году.Talk в основном фокусируется на соединении и слиянии похожих однородных наборов данных в одной области и предлагает решения и решения.

Ниже приводится публикация статьи:

Исследования, ориентированные на данные

1. Исследование фон

На сегодняшний день наиболее популярной парадигмой глубокого обучения является сквозная парадигма обучения. Парадигма показана на рисунке 1, где для шага 1 в реальных приложениях обычно существует несколько необязательных наборов данных для одной и той же задачи, и мы часто выбираем только один из них за раз с помощью различных методов. Выполняем обучение модели. Это не только растрачивает другие наборы данных, но и накладывает ограничения на модель, поскольку качество и количество данных оказывают решающее влияние на способность моделей глубокого обучения к обобщению. Исходя из этого, мы подумали:Зачем использовать только один набор данных для обучения нейронной сети? Почему несколько наборов данных не могут работать одновременно?

1.jpgРисунок 1. Парадигма сквозного обучения

В ответ на вышеуказанные проблемы необходимо интегрировать наборы данных.Интеграция может быть разделена на два типа: 1. Прямое слияние может быть выполнено, когда метки наборов данных совпадают, то есть образцы с одной и той же меткой сливаются напрямую. 2. В случае несогласованных меток текущие решения в основном смешаны в скрытом векторном пространстве, например, трансферное обучение, которое имеет много преимуществ, включая возможность эффективно передавать и интегрировать соответствующие знания предметной области, а также значительно уменьшить объем данных. , стоимость обучения и т. д. последующих задач. Тем не менее, все еще есть некоторые недостатки, такие как смешивание в скрытом слое, что приводит к слабой интерпретируемости и не использует семантическую информацию, связанную с наборами данных.

2.jpg

3.jpgРисунок 2. Прямое и косвенное слияние наборов данных

Потом будем думать,Когда метки неоднородны, можно ли выполнить прямое слияние в пространстве меток?

Данная статья начинается с этой проблемы, сПозиция семантической информации метки в наборе данныхПредлагается решение, то есть метки похожих наборов данных часто семантически связаны в рамках предметных знаний, поэтому их можно соединить графами. В частности, как показано в примере на рисунке 3, три самых левых похожих набора данных в поле животных не могут быть напрямую объединены из-за различий в иерархии или степени детализации их меток После сопоставления три набора данных могут быть связаны.

图3.jpgРис. 3. Подключение набора данных через граф меток

Следуя вышеупомянутым идеям, эта статья начинается с самых основныхЗадача классификации с одной меткойВ качестве отправной точки предлагается фреймворк для реализации соединения наборов данных в пространстве меток на основе графа меток. Конкретная информация показана на рисунке 4. Верхняя часть представляет собой три одинаковых набора данных с одной меткой, но их метки разные и не могут быть интегрированы напрямую, поэтому каждый набор данных соответствует обучению модели с одной меткой. половина — это предложенное нами решение, которое объединяет три набора данных в один для одновременного обучения одной модели и переходит от прогнозирования с одной меткой к прогнозированию пути с узлом метки в качестве конечной точки. Чтобы облегчить понимание, мы перечисляем метки истинности до и после объединения трех наборов данных на рисунке 3 в таблице 1.

图4.jpgРисунок 4, традиционная модель прогнозирования с одной меткой и модель прогнозирования пути на основе графа из этой статьи.

表1.jpgТаблица 1. Изменения меток до и после объединения наборов данных

работает в этой газетеспособствоватьвключают:

·Предлагается новая парадигма прямого подключения наборов данных на основе пространства меток;

·Разработана новая концепция алгоритма обучения, и результаты экспериментов по классификации изображений и текста демонстрируют эффективность этой парадигмы;

·По сравнению с традиционной комплексной парадигмой наш подход повышает интерпретируемость и возможность отслеживания причинно-следственных связей.

2. Краткое изложение метода

Построение графика:

意义.jpgЧтобы лучше понять этот процесс сборки, мы начнем склассификация домашних животныхВ качестве примера предположим, что есть два набора данных A и B, которые представляют собой набор данных бинарной классификации кошек и собак и набор данных мелкозернистой классификации пород кошек и собак соответственно. Затем она строится в следующие четыре шага (локальная подкарта показана на рисунке 5):

(1) Найдите ближайшего общего предка этих меток в таксономическом положении и добавьте его в пустой граф в качестве корневого узла.

(2) Согласно таксономии, сверху вниз мы выбираем наиболее похожие метки кошка и собака как два соседних узла под корневым узлом,

(3) Повторите шаг 2, а затем продолжайте расширяться вниз в соответствии с таксономией, ознакомьтесь с соответствующей информацией, определите три основные характеристики, которые можно использовать для классификации собак, включая тип шерсти, форму ушей и форму хвоста, и перечислите их. характеристики этих трех типов: ① короткохвостый, длиннохвостый, ② висячий, с прямой спиной, в форме розы, ③ короткохвостый, тонкохвостый, курчавый, длиннохвостый. То же самое относится и к кошкам, перечислите специфические характеристики типа и окраски шерсти: ① длинная шерсть, короткая шерсть; ② сплошной окрас, акцентный окрас, длинный пятнистый окрас. Все эти функции добавляются в граф в виде узлов расширения.

(4) Соедините каждый узел метки с соответствующим узлом конкретной функции (т. е. узлом расширения) и соедините корневой узел с узлом расширения.

图5.jpgРисунок 5, Пример построения карты (частичная карта)

Конкурирующие узлы: чтобы лучше отразить взаимосвязь между узлами на одном уровне на графе меток, мы определяемКонкурирующий узел:

呱呱.jpgПотому что для общего Softmax все классы конкурируют друг с другом. Но в нашей архитектуре конкурирующие отношения существуют только между конкурирующими узлами. Сравнение между Softmax и Block-Softmax показано на рисунке 6.

图6.jpgРисунок 6. Сравнение Softmax и Block-Softmax.

Детерминированный путь: чтобы справиться со случаем, когда категории имеют детерминированные характеристики, мы определяемДетерминированный путь:

图7.jpgНа рис. 7 единственный детерминированный путь на графе отмечен красным, Животное->Кошка->Короткошерстная->Британская_короткошерстная.

Для обучения детерминированных путей мы принимаемTeacher ForcingСтратегия обучения , т. е. мы рассматриваем каждый наземный путь истины как последовательность, подаем эту последовательность в рекуррентную единицу и позволяем кодировщику авторегрессивно предсказывать каждый токен (т. е. узел) в последовательности. Поток показан на рисунке ниже для детерминированных путей.P,будетPПосле того, как все узлы в сети пройдут одни и те же шаги, можно получить следующую функцию потерь для обратного распространения и оптимизации:

图8.jpgРисунок 8. Процесс обучения детерминированного пути

Неопределенный путь: чтобы справиться со случаем, когда классы имеют недетерминированные характеристики, мы определяемнедетерминированный путь:

图9.jpgНа рисунке 9 три недетерминированных пути от Animal до British_Shorthair отмечены красным.

七七c109.jpg

Общая структура модели:

Мы разработали общую структуру в соответствии с фреймворком Encoder-Deocder. Для кодировщика EfficientNet-b4 используется в задаче классификации изображений, в то время как Bert или LSTM используются в качестве экстрактора признаков для задачи классификации текста, а GRU единообразно используется для декодера.

图10.jpgРисунок 10. Общая структура тяжелой модели для задачи классификации изображений

3. Эксперимент

Настройки набора данных:

表2.jpgТаблица 2. Статистика набора данных (K представляет количество классов)

三圈.jpgРисунок 11. Распределение данных двух исходных наборов данных в группе 1 (Oxford-IIIT Pet слева, собака и кошка справа). Эта визуализация взята из открытого набора данных Graviti.

两大圈.jpgРисунок 12, распределение данных двух исходных наборов данных в Группе 2 (цветок категории 102 слева, цветок категории 17 справа), эта визуализация взята из OpenDataset Graviti.

В этой статье для эксперимента установлены три набора наборов данных, а статистическая информация наборов данных показана в таблице 2, на рисунке 11 и рисунке 12. Группы 1 и 3 соответствуют слиянию мелкозернистых и крупнозернистых наборов данных, при этом между метками наборов данных нет пересечения; группа 2 соответствует слиянию наборов данных одинаковой детализации, а размер пересечения между две метки 8. Также обратите внимание, что наши тесты выполняются на более сложных мелкозернистых наборах данных.

Следует отметить, что наборы данных изображений, используемые в тексте, взяты из общедоступного сообщества наборов данных GridTitan и используют платформу данных GridTi для эффективного и простого подключения и чтения:

官网.jpg

代码1.jpg

代码2.jpg

代码3.jpg

代码4.jpg

Настройка базовой линии: Что касается настройки базовой линии, для задачи классификации изображений мы устанавливаем три

  1. Efficientnet-b4+FFN, модель традиционной классификации с одной меткой.

  2. E FFI CIENTNET-B4 + PSEUDO LABELS, слияние данных обучающего набора на основе псевдометки, то есть выборки в наборе необработанных данных, в детализированную псевдометку, и объединяет эти выборки этих вкладок в данные о размерах мелких частиц.

  3. Efficientnet-b4+Label Set, модель, основанная на классификации с несколькими метками, принимает метку узла на пути истинности, соответствующему образцу, в качестве своей множественной метки.

Для задачи классификации текста мы поставили одну: традиционная модель классификации с одной меткой.

Результаты экспериментов:

表3.jpgТаблица 3. Результаты классификации изображений, метрическая точность

Эти результаты находятся вдетальный набор данныхполученный на тестовом наборе. ("X" означает, что параметр нельзя использовать непосредственно для рассматриваемой модели, а "-" означает, что эксперимент имеет более низкий приоритет, поэтому текст опущен).

表4.jpgТаблица 4, результаты классификации текста, индекс измерения F1 балл

Основные экспериментальные результаты данной статьи представлены в таблицах 3 и 4, из которых видно, что:

i) Даже без помощи дополнительных наборов данных простое расширение меток до графа отношений меток в сочетании со стратегией обучения, описанной в этой статье, все равно улучшит производительность.

ii) Использование метода, предложенного в этой статье, превосходит базовый уровень, что иллюстрирует осуществимость нашего метода для слияния наборов данных в пространстве меток.

Анализ интерпретируемости, по сравнению с подходом сквозного слияния систем «черный ящик», в наших экспериментах мы обнаружили, что наша структура легко интерпретируется, потому что при выполнении вывода граф меток на самом деле является классификацией. Модель обеспечивает"Процесс принятия решения". Левое изображение на рисунке ниже рисует три узла улучшения (Tabby-Color, Point-Color и Solid-Color) и некоторые соответствующие изображения, а правое изображение — это путь, соответствующий каждой строке образцов, Объединив эти два изображения, мы можем см. Можно сделать вывод, что модель может изучать особенности расширенных узлов через выборки с детерминированными путями и применять их для вывода выборок с неопределенными путями. Взяв в качестве примера персидскую кошку, квадрат с красными точками - это персидская кошка Персидская кошка имеет акцент и сплошные цвета, поэтому ее цвет неопределен, и модель может пройти детерминированный фокус. Образцы сфокусированных и однотонных кошек изучаются различать разноцветные образцы у персидских кошек.

图13.jpgРисунок 13. Пример графика интерпретируемых результатов

Для каждой строки тестовых изображений вывод модели проходит через узлы дополнения, перечисленные в крайнем левом углу. Предсказание выборок в синем прямоугольнике на левом изображении (соответствующем синему эллипсу на правом изображении) выполняется по детерминированному пути, в то время как выборки в зеленом прямоугольнике на левом изображении (соответствующем зеленому эллипсу на правая картинка) находятся на пути неопределенности.

4. Резюме

В этой статье исследуется проблема связности наборов данных, когда система маркировки отличается.В этой статье предлагается новая структура для решения этой проблемы, включая увеличение пространства меток, рекуррентные нейронные сети, обучение последовательности и градиенты политики.Эксперименты по классификации изображений и текста показывают, что наш метод имеет хорошее улучшение производительности и интерпретируемость. Кроме того, в этой статье эта работа также имеет тенденцию позиционировать эту работу как первоначальную попытку интегрировать обширные знания предметной области (граф меток) для облегчения коннекционизма (например, классификаторов нейронных сетей). Наконец, есть надежда, что эта работа будет способствовать исследованиям по объединению нескольких наборов данных для различных задач.

Нажмите, чтобы посетить официальный веб-сайт GridTitanium, заказать демонстрацию, сразу же ознакомиться с платформой данных GridTitanium и напрямую удовлетворить свои потребности в данных для разработки ИИ.

Gridwutitanium — прямое соответствие вашим потребностям в данных для разработки ИИ