1. Co-teaching
На приведенном выше рисунке показано направление потока ошибок трех парадигм обучения.Co-teachingбудет обучать две сети одновременно, на каждом мини-пакете, на каждом выборе сетиПроцент потерь относительно невелик, и выборка рассматривается какполезные знания(полезные знания), то поставитьполезные знанияОтправьте его в другую сеть, чтобы продолжить обучение. в то время как два другихсаморазвитиеПуть.
Конкретный алгоритм следующий:
Предположим, что две сети(параметры)и(параметры) Создание мини-пакета, итеративное обучениеВторосортный. Выберите тот, у которого наименьшие потери из мини-партииПроцент выборки, записанный каки, шаги 4, 5. затем обменяться собучать и обновлять,использоватьобучать и обновлять, шаги 6, 7.Он уменьшается с шагом обучения, то есть является динамическим и выбирается каждый раз.полезные знаниябудет все меньше и меньше.
В приведенном выше алгоритме есть два важных вопроса, которые необходимо объяснить:
- Почему по динамикеМожет ли отбор образцов с малыми потерями помочь нам найти чистые образцы?
- Зачем вам две сети и параметры кросс-обновления?
Пояснение к первому вопросу: Во-первых, когда метки правильные, образцы с небольшими потерями с большей вероятностью будут иметь правильные метки. Итак, если мы толькоОбразцы образцов с низкими потерямиобучить классификатор, который должен быть устойчив к зашумленным меткам. Однако для этого требуется, чтобы классификатор был достаточно надежным, чтобы гарантировать, что образцы с небольшими потерями действительно чистые. Обычно глубокие сети являются «памятью», то есть даже на зашумленных наборах данных сеть будетИзучите чистый и простой шаблон для первых эпох, поэтому модель имеет возможность отфильтровывать зашумленные данные в начале обучения. Однако по мере обучения модель постепенно соответствует этим зашумленным данным. Поэтому, чтобы воспользоваться этим законом, приведенный выше алгоритм выбирает более достоверные данные в начальной мини-партии и постепенно уменьшает их по мере обучения. По второму вопросу: Только представьте, когда студенты проверяют свои работы, им трудно найти ошибки, потому что они имеют личную предвзятость к своим ответам, но легче найти ошибки, когда они обращаются к сверстникам за помощью в проверке своих работ. Обычно разные классификаторы могут изучать разные границы принятия решений и иметь разные возможности обучения. Поэтому, когда мы обучаем модели на зашумленных данных, мы также ожидаем, что они будут обладать разными способностями к фильтрации шума. Это вдохновляет нас на обмен образцами с небольшими потерями, т.е.(или), выбранный в образце мини-пакетного обновления(или) параметры. Этот процесс похож на совместное обучение, если выбранные образцы зашумлены, две сети будут адаптивно исправлять ошибку обучения другой сети. В целом, ошибки из сети не передаются напрямую обратно в саму себя, и мы ожидаем, что метод совместного обучения сможет работать с более зашумленными данными, чем саморазвивающийся подход.
【Ссылаться на:】paper
2. Уверенное обучение
Обучение уверенности в три шага:
- Подсчет, расчетная шумовая метка по сравнению с истинной меткойсовместное распределение
- Очистить, чтобы очистить образцы ошибок.
- Повторное обучение: после очистки отрегулируйте веса категорий выборки и используйте совместное обучение для повторного обучения.
На приведенном выше рисунке показана структура доверительного обучения, Подробно описаны следующие три шага:
1.Count
Определите метку шума как, то есть образцы, которые изначально были помечены (возможно, помечены вручную), но могут содержать ошибки. Определите истинную метку как, но на самом деле мы не получаем истинную метку, обычноПерекрестная проверка1Оцените истинные этикетки. Общее количество образцов равно, общее количество категорий равно.
Шаги для оценки совместного распределения следующие:
Наша цель — оценить совместное распределение вероятностейопределить категорию шума. Вычислив число в матрице путаницы, а затем исправив количество меток для каждой метки,
- шаг 1, перекрестная проверка
- Во-первых, путем перекрестной проверки вычислить первыйобразцы вВероятности по каждой категории:
- рассчитать каждыйКатегория ручной маркировкисредняя вероятность, в видедоверительный порог.
- Завершить образецнастоящая этикетка. , его истинная метказамаксимальная вероятность среди классов, и должен удовлетворить > .
- step2, вычислить матрицу подсчета(аналогично матрице путаницы). Как показано на рисунке 1,, что указывает на то, что x искусственно помечен как собака, но на самом деле является лисой, и имеется 40 образцов. Алгоритм следующий:
- шаг 3, расчетКоррекцияМатрица подсчета, поскольку при расчете на предыдущем шаге есть условие, которое должно быть больше, чем t[j], поэтому матрица подсчетаи меньше общего числа выборок. Итак, этот шагЦель состоит в том, чтобы сделать сумму подсчетов такой же, как общее количество образцов, помеченных вручную.. в,Представляет аннотированную человеком меткуобщее количество проб.
- Шаг 4: Расчет совместного распределения, то есть разделить приведенный выше результат на общее количество выборок:
2.Clean
После получения совместного распределения шумовых меток и истинных меток, в документе предлагается всего 5 методов фильтрации выборок ошибок:
- M1:, ВыбратьФильтрация выборки , т.е. для выборки, и отфильтруйте, если ручная метка отличается от максимальной метки, предсказанной моделью.
- M2: выберите матрицу количества конструкцийПри этом пробы, попадающие в диагональную ячейку, фильтруются.
- M3: Сокращение по классам (PBC), для каждого классавыберитеотсчетов, где n – общее количество отсчетов, согласноСортировка, фильтрация по наименьшему количеству баллов.
- M4:Обрезать по коэффициенту шума (PBNR) , для недиагональных ячеек выберитеобразцы фильтруются в соответствии с-Сортировка, фильтрация по наименьшему количеству баллов.
3.Re-Training
После фильтрации ошибочных выборок по совместному распределениюкаждая категорияПриведенные ниже веса потерь переназначаются следующим образом:
в:Тогда возьмите фреймворк Co-Teaching для переподготовки.
【Ссылаться на:】cleanlab Ссылка 1
3. Searching to Exploit Memorization Effect in Learning with Noisy Labels
(продолжение следует...)