Встраивание графиков атрибутов с учетом выбросов

алгоритм
Встраивание графиков атрибутов с учетом выбросов

Мало знаний, большой вызов! Эта статья участвует в "  Необходимые знания для программистов  «Творческая деятельность

Эта статья также участвует "Проект "Звезда раскопок""  , чтобы выиграть творческие подарочные наборы и бросить вызов творческим поощрениям

Сначала перейдите по адресу газеты

Bandyopadhyay S, Lokesh N, Murty M N. Outlier aware network embedding for attributed networks[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2019, 33: 12-19. Bandyopadhyay S, Vivek S V, Murty M N. Outlier Resistant Unsupervised Deep Architectures for Attributed Network Embedding[C]//Proceedings of the 13th International Conference on Web Search and Data Mining. 2020: 25-33.

1. Введение

Достигнут большой прогресс во внедрении исследований узлов в существующий граф атрибутов.Часто используется глубокое обучение.Популярный gcn добился больших прорывов.Однако, если сам граф атрибутов имеет аномальные точки, эти аномальные точки серьезно повлияют на окончательный результат обучения встраиванию. Эта статья предназначена для изучения встраивания представления восприятия выброса в граф атрибутов.

2. Определение исключения

Прежде всего, в этой статье определяется, как выглядит исключение (я думаю, что этот шаг является ключом к последующему развитию статьи. После определения разумного исключения мы можем выполнить следующую работу)

Тот же цвет принадлежит сообществу. Обычно сообщество более похоже (близко) по свойствам и структуре. Аномальный а (структурная аномалия): принадлежит к красному сообществу (нормальному) по признаку и структурно связан с узлами других сообществ. Аномалия b (аномалия атрибута): По структуре он принадлежит к красному сообществу (нормальному), и его атрибуты аналогичны атрибутам других сообществ, то есть только по атрибутам этот узел не полностью соответствует модусу красное сообщество. Аномалия c (комплексная аномалия): узел принадлежит зеленому сообществу, а атрибут принадлежит синему сообществу. То есть исключения есть как в свойствах, так и в структурах.

3. Определение проблемы

G = (V,E,C), где V = {v1,v2,...,vN} , A — матрица смежности (N_N), C — матрица содержания (N_K), распространенная проблема в задачах исследования графы A очень разрежены, и задача этой статьи состоит в том, чтобы изучить хорошие векторные представления, выполняя работу по обнаружению аномалий. (Некоторые методы обнаружения аномалий не могут изменить модель для разреженности) Наконец, получается низкоразмерное представление узла. Эта проблема связана с обнаружением аномалии в неконтролируемом сценарии (без какой-либо информации о метке аномалии). И содержимое, и часть обнаружения структурных аномалий ниже основаны на потерях реконструкции.

4 модели

4.1 Learning from the Link Structure

A — матрица смежности. G — низкоразмерное представление, и это то, что мы хотим в конечном итоге изучить. H — матрица преобразования. Мотивация такова: в настоящее время представлен скрытый вектор, полученный в результате обучения, а функция потерь основана на потерях при реконструкции, которые представляют собой квадратный член приведенной выше формулы. Но поскольку этот вид обучения может запомнить только большинство шаблонов, само определение выбросов «значительно отличается от других», выбросы, возможно, внесли большой вклад в эту потерю, поэтому идея автора состоит в том, чтобы позволить выбросам внести небольшой вклад. к окончательному поражению. В крайних случаях мы стираем эти выбросы, разве это не хороший процесс обучения представлению?

4.2Learning from the Attributes

та же идея

4.3 Connecting Structure and AttributesВышеизложенное должно рассматривать только структуру или свойства. Я понимаю, что приведенные выше две функции потерь могут дать хорошие результаты для аномалии и аномалии b соответственно. Для третьего исключения, совместного исключения. Если вы просто посмотрите на свойства, нет никаких исключений. Если вы просто посмотрите на структуру, нет никаких исключений. В то же время есть исключения. Следовательно: Ограничивающие структурные элементы и атрибутивные элементы, поскольку они являются разными представлениями узла, ограничены.

G и U могут не совпадать. Следовательно, задача преобразования встраивания и прокруста умножается на ортогональную матрицу с ограничениями, чтобы сделатьВыравнивание характеристик! ! !То есть проблема Прокруста (Baidu смотрит на выравнивание пикселей, которое часто используется в поле изображения). Лично я понимаю, что нет ограничения на W, и нет решения в закрытой форме позже. что автор тоже пробовал~

4.4 Совместная потеря

4.5 Обновление Исправьте другие параметры, обновляйте по одному. 4.6 Обновления для G, H, U, V G:

Найдите производную = 0, и можно будет вывести основу продвинутой алгебры. другие подобные

4.7 Обновление W

Преобразованная задача Прокруста, прямое решение в закрытой форме.4.8 Обновление OПреобразована в задачу Лагранжа с ограничениями равенства.

Решение для продвинутых знаний по алгебре~4.9 Алгоритм процесса: ONE

5. Экспериментируйте! ! ! !

Инициализация: G и U представлены матричным разложением. набор данных

Способ установки точки исключения (исключение впрыска):1. Рассчитайте распределение классов каждого типа узла. 2. Выделить класс узлов по вероятности структурных аномалий 3. Посадить узел в этот тип узла и соединить ребро этого узла (m+10%) с другими категориями. m - средний градус по этой категории. 4. Содержание семантически совпадает с этой категорией. (содержимое узла структурного выброса делается семантически согласованным с ключевыми словами, выбранными из узлов выбранного класса)Результаты эксперимента по нисходящим задачам: Задачи обнаружения аномалий, классификация узлов, кластеризация узлов Обнаружение выбросов, классификация узлов, кластеризация узлов

Алгоритм AANE иногда эквивалентен ему

SEANO частично контролируется, но не так хорошо, как в этой статье. Но AANE лучше работает с набором данных citeseer. Мы рассмотрим этот алгоритм позже.

6 Заключение и вклад: !

1. Первая статья посвящена внедрению обучения необычному восприятию. (Грубо говоря, это учитывать влияние выбросов при изучении векторов) 2. Используйте задачу Прокруста для решения задачи выравнивания. , 3. Эксперимент прошел хорошо

7. Далее автор продолжил доработку и разместил ее на wsdm.

Автор предлагает два алгоритма Done и Adone соответственно. Вклад 1. Замените G и U скрытым вектором AE. 2. Используйте дискриминатор, чтобы заменить проблему Прокруста Минимизируя потери дискриминатора, скрытые векторные измерения, генерируемые двумя AE, выравниваются!! !очень умно!!!

Эксперимент: Обнаружение аномалии Задача:

Доминирующий эффект очень хороший, это полуконтролируемый метод, мы увидим его позже~

Adone хорош, когда есть исключения~ Классификация узлов

Поскольку автор предлагает состязательный модуль на основе DONE, эффективность состязательного модуля проверена!






Сосредоточьтесь на передовых достижениях в области машинного обучения и алгоритмов управления рисками и делитесь техническими статьями, такими как соревнования по интеллектуальному анализу данных, машинное обучение, анти-мошенничество и системы рекомендаций. Приходите и следуйте за мной, чтобы учиться вместе!